24
magazine scientifique PAUL SABATIER www.ups-tlse.fr Délégation Midi-Pyrénées Avec la participation de Délégation régionale Midi-Pyrénées, Limousin DOSSIER Le cerveau 25 avril 2012

paul - Institut des Sciences du Cerveau de Toulouse · 31 062 Toulouse cedex 9 PAUL magazine scientifique SABATIER ... Pascale Klopp, Jacques Amar, Laurent Alric, Karl Barange, Jean-Pierre

  • Upload
    lamminh

  • View
    214

  • Download
    0

Embed Size (px)

Citation preview

m a g a z i n e s c i e n t i f i q u epaul sabatier

www.ups-tlse.fr

Délégation Midi-Pyrénées

Avec laparticipation de

Délégation régionaleMidi-Pyrénées, Limousin

DossierLe cerveau

N ° 2 5av

ri

l

20

12

Paul SabatierN° 25 • Avril 2012

Illustration de couverture :

L’hémisphère droit : cerveau de l’attention

visuospatiale.La reconstruction tractographique

des trois voies qui relient le lobe parietal au lobe frontal, situé dans

les deux hémisphères du cerveau humain.

© Inserm/UPMC/CNRS

Directeur de la publication :

Gilles FourtanierRédacteur en chef :

Daniel GuedaliaComité de rédaction :

Isabelle BerryPatrick Calvas

Daniel GuedaliaGuy Lavigne

Fréderick MonpiouAude Olivier

Martine Poux

Carine DesaultyNathalie Boudet

Valeria Medina (délégation Midi-Pyrénées

du CNRS)Christine Ferran, Délégation

régionale Midi-Pyrénées, Limousin de l’Inserm

Conseillère de rédaction :Anne Debroise

Diffusion :Joëlle Dulon

Coordination du dossier Cerveau

François Chollet Yves Trotter

Conception graphique et impression : Ogham-Delort

05 62 71 35 35 n° 1573

dépôt légal : Avril 2012

ISSN : 1779-5478Tirage : 2 000 ex.

Université Paul Sabatier118, route de Narbonne

31 062 Toulouse cedex 9

m a g a z i n e s c i e n t i f i q u ePAUL SABATIER

www.ups-tlse.fr

Délégation Midi-Pyrénées

Avec laparticipation de

Délégation régionaleMidi-Pyrénées, Limousin

wwwwww.ups

DOSSIERLe cerveau

N ° 2 5av

ri

l

20

12

Vos encouragements, vos critiques, vos suggestions, une seule adresse :

[email protected] pouvez consulter et télécharger ce magazine et les numéros antérieurs sur le site www.ups-tlse.fr (rubrique « diffusion des savoirs/ le magazine scientifique »)

aInfos en

Vie des laboratoires

Innovation

p. 4

DossierLe Cerveau

p. 14

Le « Cristal » du CNRS p. 13

p. 21

Une image très positive

Àl’occasion de l’envoi du dernier numéro du magazine nous avons réalisé une enquête de satisfaction auprès d’une partie des lecteurs destinataires de la version papier. Nous avons reçu une centaine de réponses, ce qui correspond à presque 10% des lecteurs interrogés.

Pour ce qui concerne le contenu, 85% des lecteurs se sont déclarés très satisfaits des rubriques « dossiers » et « vie des laboratoires » et 60% de la rubrique « prix et médailles ». Pour ce qui concerne l’aspect général du magazine, 90% ont jugé agréable la présentation et 80% ont estimé que le niveau de l’information était correct.

Malgré la relative faiblesse de l’échantillon, cette enquête donne une image très positive de notre magazine. Cela est encourageant !

Ce magazine scientifique a été lancé en juin 2004 sous la présidence de Jean-François Sautereau et j’ai continué à soutenir pas seulement son maintien, mais encore un élargissement de son action. L’objectif initial était de valoriser et de mieux faire connaître la qualité de la recherche des équipes et des laboratoires de l’université Paul Sabatier. Très rapidement, un partenariat pour le magazine a été établi avec les délégations régionales du CNRS et de l’Inserm, co-tutelles de la majorité de nos unités.

Nous souhaitons que ce magazine soit aussi la vitrine des résultats obtenus par des équipes du site qui sans être sous la tutelle de l’université Paul Sabatier, travaillent dans des domaines de recherche proches de ceux de nos équipes. C’est le cas en particulier des unités de l’Inra, de l’Inp, de l’Insa,…

Cette politique d’ouverture trouve son illustration dans ce numéro. Ainsi dans la rubrique « vie des laboratoires », des résultats sont présentés par un chercheur du Cerfacs, et d’autres par un chercheur d’un laboratoire de l’Inra. Nous souhaitons maintenir et amplifier cet esprit d’ouverture, dans l’attente d’un accord futur plus formel avec d’autres établissements partenaires du site toulousain.

Le dossier présenté dans ce numéro concerne les recherches sur le cerveau. Le cerveau a été de tout temps une des énigmes de la recherche médicale et aussi un sujet majeur compte tenu de la place qu’il occupe dans le fonctionnement du corps humain. Depuis quelques dizaines d’années, les avancées obtenues sont spectaculaires et les nouvelles techniques d’imagerie médicale y ont fortement contribué. Sur le site toulousain, les laboratoires travaillant sur le cerveau humain ou animal sont regroupés au sein de l’Institut des sciences du cerveau de Toulouse (ISCT), qui est doté de plateformes techniques de haut niveau. Ce dossier présente quelques-unes des plus récentes découvertes des chercheurs toulousains.

Je vous souhaite une très agréable lecture.

Gilles Fourtanier Président de l’université Paul Sabatier

Édito

PAUl SAbAtieR avri l 2012

4

Vie des labosMathématiques

Le chaos gagne du terrainLes systèmes simples peuvent avoir des comportements complexes. Une équipe de l’Institut de mathématiques de Toulouse (IMT) vient justement de dévoiler un nouveau cas de comportement imprévisible, jamais décelé depuis le 20e siècle. Entretien non-chaotique avec Xavier Buff, un des chercheurs à l’origine de la découverte.

Comment peut-on définir le chaos ?

A la fin du 19e siècle, Henri Poincaré cherchait à comprendre si le système solaire était instable. Peut-on dire si dans plusieurs millions d’années la Terre tournera encore autour du soleil ou si au contraire elle aura quitté son orbite ? Il a découvert que l’on ne peut pas répondre à cette question avec certitude. D’infimes per-turbations sur la position actuelle des planètes peuvent conduire à des évolutions radicale-ment différentes. On dit que l’état d’un système dynamique, c’est-à-dire un système qui évolue suivant des lois connues, est chaotique lorsque son comportement à long terme est extrême-ment sensible aux changements des conditions initiales, aussi petits soient-ils.

Comment étudie-t-on les systèmes chaotiques ?Un modèle mathématique permet d’étudier l’influence de certains paramètres sur le système étudié. Les modèles mathématiques permettant d’étudier les systèmes dynamiques conduisent à l’étude des suites définies par récurrence. Dès le début du 20e siècle, Pierre Fatou et Gaston Julia ont proposé d’étudier alors les suites définies par une récurrence polynomiale de nombres complexes. Leur comportement dépend de leur

point de départ. Ce dernier étant un nombre complexe, on peut le représente sur un plan. On peut ainsi colorier chaque point du plan en fonc-tion du comportement à long terme de la suite et cela donne de fascinantes images. La frontière de ces zones, qui correspondent à tel ou tel com-portement, est le lieu où se concentre le chaos. On l’appelle ensemble de Julia.

Qu’ont de particulier les ensembles de Julia que vous avez découverts ?On conçoit généralement la frontière qui borde une étendue comme étant infiniment fine: elle est d’aire nulle, autrement dit un point du plan choisi au hasard aura une probabilité nulle de se trouver sur cette frontière. Cependant, les mathématiciens savent construire depuis long-temps des zones dont la frontière est suffisam-ment tortueuse pour avoir une aire non nulle. Une question s’est donc posée : est-ce que les ensembles de Julia peuvent avoir une aire non nulle ? Autrement dit : un point choisi au hasard a-t-il une chance de se trouver dans la partie chaotique des systèmes dynamiques étudiés par Fatou et Julia ? La plupart du temps, c’est non. Mais nous avons réussi à trouver des exemples où c’est le cas.

Comment avez-vous découvert ce nouvel exemple de chaos ?Arnaud Chéritat et moi, nous avons eu le même directeur de thèse : Adrien Douady. C’est lui qui le premier a deviné où il fallait chercher des en-sembles de Julia d’aire non nulle. Il a mis au point un plan d’attaque qui a été étudié par Arnaud dans sa thèse et qui nous a ensuite permis de démontrer leur existence.

Pourquoi cette existence restait inconnue depuis le début du 20e siècle ?Il a fallu attendre les années 1980 et les premières images d’ensembles de Julia obtenues par ordina-

[email protected]@math.univ- toulouse.fr

u

Pour en savoirX Buff, A Chéritat, Quadratic Julia sets with positive area, Annals of Mathema-tics. 2012. Sous presse

a

L’ensemble de Julia est la frontière entre la région bleue et la région orange.

teur pour que ces objets mathématiques soient de nouveau étudiés. Notre démonstration repose sur des travaux récents des Japonais Hiroyuki Inou et Mitsuhiro Shishikura. Lors d’une confé-rence au Danemark en 2003, nous avons réalisé que ces travaux nous permettraient de conclure. Il a encore fallu apprendre à les utiliser. n

Propos recueillis par Aude Olivier

Xavier Buff, professeur UPS et Arnaud Chéritat, chargé de recherche CNRS, à l’institut de Mathématiques de Toulouse, (IMT, unité mixte UPS/CNRS/INSA/UT1/UT2). © A. Labat/UPS

avri l 2012 PAUl SAbAtieR 5

Sciences du vivant

Pourquoi l’infection par le HIV conduit à une inflammation chroniqueUn des mécanismes de l’inflammation chronique existant chez les malades infectés par le VIH a pu être décrypté par une équipe du CPTP de Toulouse Purpan(1). Pierre Delobel, responsable de ce projet nous explique l’importance de ce résultat.

Pierre Delobel, maître de conférences

à l’UPS et praticien hospitalier dans le

service des maladies infectieuses, cher-

cheur au Centre de physiopathologie

de Toulouse Purpan (CPTP, unité mixte

Inserm / UPS / CNRS).

[email protected]

u

a

Pour en savoirMaud Mavigner, Michelle Cazabat, Martine Dubois, Fatima-Ezzahra L’Faqi-hi, Mary Requena, Christophe Pasquier, Pascale Klopp, Jacques Amar, Laurent Alric, Karl Barange, Jean-Pierre Vinel, Bruno Marchou, Patrice Massip, Jacques Izopet, Pierre Delobel. Altered CD4+ T-cell homing to the gut impairs mucosal immune reconstitution in treated HIV-infected individuals. Journal of Clinical Investigation. 2012 ; 122(1) :62-69.

a

Quelle est l’importance des phénomènes inflammatoires au cours de l’infection par le ViH ?La majorité des patients infectés par le VIH pré-sente une inflammation généralisée persistante même sous traitement antirétroviral efficace. Si cette inflammation est asymptomatique sur le plan clinique, elle contribue à altérer le pronos-tic à long terme, notamment en favorisant le vieillissement et la survenue de maladies cardio-vasculaires. Il a été préalablement montré que le dérèglement immunitaire de la muqueuse intes-tinale par le VIH favorise le passage de bactéries de la flore intestinale dans le sang, et que ce mé-canisme joue un rôle clé dans l’origine de cette inflammation. Paradoxalement, sous traitement antirétroviral, les lympocytes T CD4 restent très déficitaires dans la muqueuse intestinale alors qu’ils sont correctement restaurés dans le sang chez la majorité des patients.

Quelle a été votre démarche devant ce constat ?Nous avons réalisé une étude physiopatholo-gique sur 20 patients séropositifs pour le VIH, traités depuis 5 ans et en succès thérapeutique comparés à 10 témoins séronégatifs pour es-sayer de comprendre les mécanismes impliqués dans ce défaut de reconstitution de l’immunité de la muqueuse intestinale, défaut qui contribue à l’inflammation généralisée persistante obser-vée chez les patients. Nous avons mis pas moins de 2 ans pour recruter les patients car il ne nous paraissait pas éthique de réaliser une endosco-pie digestive pour le seul but de cette étude, et seuls les patients devant subir une endoscopie pour une autre indication et ne présentant aucune pathologie susceptible d’interférer avec l’immunité muqueuse ont donc pu être inclus.

Quels ont été les résultats ?Chez les patients infectés par le VIH sous trithé-rapie, une fréquence anormale de lymphocytes CD4 porteurs des marqueurs CCR9 / α4β7 restent dans le sang et ne migrent pas vers la muqueuse de l’intestin grêle. Cette étude a mis en évidence qu’une protéine en particulier, la chimiokine CCL25, qui normalement attire ces CD4 n’est pas ou peu produite par la muqueuse intestinale chez les personnes infectées et trai-tées. Conséquence : la barrière immunitaire digestive reste déficitaire à cause d’un défaut d’attraction de ces CD4. Les bactéries de la flore intestinale continuent alors à passer dans le sang. C’est un vrai cercle vicieux : le déficit im-munitaire de la muqueuse conduit à une altéra-tion de celle-ci, qui entraîne le déficit en CCL25, qui lui-même entretient le déficit immunitaire de la muqueuse.

Quelle serait la suite à ce travail ?Un travail de recherche doit être poursuivi pour comprendre pourquoi la chimiokine CCL25 n’est pas ou peu produite chez ces patients en

essayant de mettre en évidence les différents facteurs influents (le virus lui-même, d’autres facteurs immunologiques, etc.). Côté thérapeu-tique, il faut arriver à restaurer l’attraction des lymphocytes T CD4 vers la muqueuse digestive pour qu’ils puissent y jouer leur rôle immunitaire protecteur et interrompre le phénomène délé-tère de translocation bactérienne .

Quelles perspectives thérapeu-tiques peuvent être envisagées ? Il faudrait pouvoir délivrer localement la protéine manquante au niveau de la muqueuse intesti-nale de manière à restaurer le mécanisme d’at-traction des lymphocytes CD4. Ce traitement viendrait compléter la trithérapie pour réduire l’inflammation chronique, qui se révèle délétère à long terme. n

(1) : Ont participé aussi à cette étude les services hospitaliers suivants : Service des maladies infectieuses et tropicales ; Pôle digestif et Laboratoire de virologie, tous les trois à l’hôpital Purpan.

Propos recueillis par Christine Ferran

L’expression de la chimiokine CCL25 par l’épithélium intestinal est diminuée chez les patients infectés par le VIH (marquage de CCL25 en brun par la peroxydase en immunohistochimie).

PAUl SAbAtieR avri l 2012

6

Vie des labosSciences de la matière

Un nanotube conduit à des sources d’électrons plus brillantesEn utilisant un nano cône de carbone graphénique, des chercheurs du Cemes viennent de concevoir une source d’électrons 5 fois plus brillante que celles classiquement utilisées en microscopie électronique à transmission. Cette découverte devrait permettre en particulier d’améliorer les techniques allant de l’interférométrie à la spectroscopie électronique. Entretien avec Florent Houdellier.

Quels types de sources d’électrons équipent les microscopes électroniques ?On peut les ranger dans deux catégories diffé-rentes : les sources thermoïoniques et les sources à effet de champ. Dans le premier cas, les élec-trons sont arrachés par l’agitation thermique en chauffant une pointe (la cathode) en tungstène ou en LaB6. Il s’agit du principe de fonctionne-ment des tubes cathodiques équipant encore certains écrans. Dans le second cas, l’extraction se produit au bout d’une très fine pointe sous l’effet d’un fort champ électrique. La plupart des microscopes électroniques à transmission utilisent actuellement soit des sources thermoïo-niques, soit des sources Schottky combinant émission de champ et effet thermique.

Que cherche-t-on à améliorer dans leur fonctionnement ?Pour de nombreuses techniques de microscopie comme l’holographie électronique, la microsco-pie en haute résolution ou la spectroscopie élec-tronique, il est souhaitable d’avoir une source la plus ponctuelle possible, ce qui correspond à une brillance maximale. Dans les sources Schottky, la taille de la zone émettrice d’électrons est com-prise entre quelques centaines de nanomètres et quelques microns. Les sources à émission de champ « froides » permettent de réduire la zone d’émission, et donc d’augmenter considé-rablement la brillance, en utilisant des pointes en tungstène dont la zone émettrice atteint quelques dizaines de nanomètres. Cependant, le courant émis reste trop instable et très bruité.

Quelle a été votre approche ?En 2002, De Jonge a montré qu’un nanotube de carbone pouvait être une excellente source d’électrons à émission de champ froide pour la microscopie en raison de sa forme et de sa sur-face inerte à la contamination. Toutefois, sous

l’effet du fort champ électrique, la vibration du nanotube de carbone, allant parfois jusqu’à sa destruction, rendait improbable sa mise en œuvre pratique. Nous avons alors réussi à fabri-quer une cathode en nanotube encapsulé dans un cône de carbone graphénique beaucoup plus résistant mécaniquement aux vibrations tout en gardant les excellentes propriétés émettrices du nanotube. Pour cela, nous avons utilisé une technique dite de CVD à temps de vol qui per-met de faire cristalliser des feuillets de graphène enroulés autour d’un nanotube utilisé comme substrat. La morphologie de la pointe ainsi réali-sée est complexe : épaisse et rugueuse au centre, ses deux extrémités présentent une structure conique très fine. Nous avons alors pu manipuler, découper cette pointe avant de la souder sur une pointe classique en tungstène facile à monter dans le microscope.

Quelles sont les performances de cette nouvelle source ?Nous avons pu mesurer par différentes tech-niques la brillance de cette source : elle est cinq fois supérieure à une source froide standard uti-lisant une pointe en tungstène, dans les mêmes

a) : Vue générale de la cathode en tungstène.

b) : détail du bout de la pointe où l’on peut apercevoir le cône de carbone soudé.

c) vue schématique de la structure du nanocône graphénique et de son nanotube central.

d) : Franges de Fresnel observées en bord de diaphragme circulaire placé sur le trajet du faisceau électronique. Courbe rouge : franges moyennées sur les 360° du diaphragme et observées avec une cathode standard en tungstène. Courbe noire : la même expérience obtenue avec la nouvelle cathode en nano cône de carbone.

Pour en savoirNew carbon cone nanotip for use in a highly coherent cold field emission electron microscope”, Florent Houdellier, Aurélien Masseboeuf, Marc Monthioux, Martin J. Hÿtch, Carbon, 50, 2037-2044, 2012.Brevet N° : PCT/FR2011/052135 (2011)

a

conditions d’utilisation. De plus, elle est extrê-mement stable dans le temps, contrairement à une source froide classique.

Quelles sont les perspectives de ce travail ?Nous venons de déposer un brevet concernant cette nouvelle source et plusieurs constructeurs de microscope électronique à transmission sont d’ores et déjà intéressés. D’un point de vue plus fondamental, notre travail intéresse les phy-siciens qui cherchent à mieux comprendre les états électroniques dans les nanotubes. n

Propos recueillis par Frédéric Mompiou

Florent Houdellier, ingénieur de recherche CNRS et Aurélien Masseboeuf, chargé de recherche CNRS, au Centre d’élaboration de matériaux et d’études structurales (Cemes, unité propre CNRS, associée à l’UPS).

[email protected]

u

avri l 2012 PAUl SAbAtieR 7

Sciences du vivant

Equipement de criblage à haut débit disponible sur la plateforme ICEO (ingénierie et criblage d’enzymes originales). © INRA/LISBP Toulouse

Gabrielle Potoki-Veronese,

chargée de recherche INRA au Laboratoire d’ingénierie des sys-

tèmes biologiques et des procédés - (LISBP,

unité mixte INSA/INRA/CNRS)

[email protected]

u

a

Pour en savoirLena Tasse, Juliette Bercovici, Sandra Pizzut-Serin, Patrick Robe, Julien Tap, Christophe Klopp, Brandi L. Cantarel, Pedro M. Coutinho, Bernard Henris-sat, Marion Leclerc, Joël Doré, Pierre Monssan, Magali Remaud-Siméon, Gabrielle Potocki-Veronese ; Functional metagenomics to mine the human gut microbiome for dietary fiber catabo-lic enzymes. Genome Res. November 2010 20: 1605-1612

a

Quel a été le point de départ de vos recherches ?Notre régime alimentaire est extrêmement va-rié. Or, certains des aliments que nous ingérons, notamment les fibres provenant des céréales, des fruits et des légumes, ne peuvent pas être digérés par l’homme, car le génome humain ne code pas pour les enzymes adéquates. La dégra-dation des fibres est donc assurée par les mil-liards de micro-organismes, présents dans notre intestin, qui produisent un panel d’enzymes très diversifié pour assurer cette fonction clé pour le maintien de la santé humaine. Il nous a donc paru intéressant de rechercher ces enzymes bactériennes spécifiques de la dégradation des végétaux en vue d’une utilisation pour la trans-formation de la biomasse végétale.

Comment avez-vous procédé ?En collaboration avec la société Libragen, nous avons récupéré l’ADN de milliards de micro-organismes issus des fèces d’un végétarien, et avons utilisé la bactérie Escherichia coli pour produire les protéines codées par cet ADN méta-génomique. Une grande partie de notre travail a consisté ensuite à cribler à très haut débit les ac-tivités enzymatiques produites par cette banque de clones métagénomiques. Ainsi, grâce à plus de 700 000 essais robotisés, nous avons iden-tifié 311 clones capables de dégrader les fibres d’origine végétale. Nous avons ensuite séquencé l’ADN métagénomique contenu dans les clones les plus efficaces. L’intérêt de cette approche est

donc d’avoir accès non seulement à une descrip-tion génomique du contenu de l’échantillon mais aussi à un aperçu de son potentiel fonctionnel.

Comment se poursuit actuellement ce travail ?Nous sommes dans la phase de caractérisa-tion des propriétés intrinsèques des nouvelles enzymes identifiées, c’est-à-dire de leur struc-ture tridimensionnelle et de leur fonctionne-ment. De plus, nous avons découvert tout un panel d’enzymes qui travaillent en synergie pour dégrader la structure complexe des fibres. Nous travaillons à identifier le ou les cocktails les plus efficaces pour dégrader les matières premières les plus résistantes.

A terme, quelles sont les voies d’exploitation possibles ?L’enjeu est maintenant de tester le potentiel de ces nouvelles enzymes pour les biotechnologies industrielles, notamment pour la transformation de la biomasse végétale en produits de subs-titution des dérivés pétroliers, comme les bio-matériaux, les biocarburants, les détergents ou les cosmétiques. En parallèle, nous transposons notre démarche à d’autres écosystèmes, comme le sol, le tube digestif d’insectes et de ruminants qui sont eux aussi des pourvoyeurs d’enzymes d’intérêt potentiel pour les biotechnologies. n

Propos recueillis par Martine Poux

Criblage fonctionnel à haut débit du métagénome intestinal humain. © Inra/LISBP Toulouse

Des enzymes intestinales pour l’industrieC’est en s’inspirant du fonctionnement de l’intestin de l’être humain que Gabrielle Veronèse, chercheur INRA, a pu isoler des enzymes très prometteuses pour les transformations biotechnologiques.

PAUl SAbAtieR avri l 2012

8

Vie des labos

Sciences de la planète

Vers un piégeage accru du CO2 atmosphérique par dissolution des roches ? Pour la première fois, une étude se penche sur l’incidence du changement climatique sur le processus de dissolution des roches à l’échelle du prochain siècle. Mené par des chercheurs du GET, ce travail révèle que la dissolution des roches est plus sensible que prévue aux modifications du climat et pourrait permettre de piéger, sur de très longues périodes, une quantité accrue de CO2 atmosphérique dans l’océan. Yves Goddéris, co-auteur de cette étude, revient avec nous sur ces travaux novateurs.

Comment la dissolution des roches intervient-elle dans le cycle global du carbone ?La dissolution des roches continentales, et plus généralement des minéraux contenus dans les sols, permet la capture du CO2 atmosphérique. En effet, le CO2 atmosphérique se dissout dans l’eau de pluie et forme de l’acide carbonique qui attaque les minéraux. Ces derniers se dissolvent et, au cours de cette réaction, le CO2 est piégé sous la forme d’ions bicarbonates qui sont em-menés par les rivières vers l’océan. Le CO2 res-tera ainsi plusieurs milliers d’années sous forme dissoute dans l’eau. Aujourd’hui, la dissolution des roches permet de piéger environ 0,3 milliards de tonnes de CO2 chaque année.

Quelle est l’originalité de vos travaux ?Jusqu’ici les scientifiques pensaient que la dis-solution des roches continentales répondait faiblement aux changements climatiques à l’échelle du siècle. Pourtant, ce processus de dissolution dépend de la couverture végétale qui est elle-même très sensible aux changements de climat. Dans le cadre de la thèse d’Emilie Beau-lieu, nous avons, pour la première fois, simulé numériquement l’effet combiné du climat et de la végétation sur la dissolution des roches et sur l’évolution du cycle du carbone au cours du pro-chain siècle.

Quelles ont été vos hypothèses de travail ? Nous avons exploré la réponse de la dissolu-tion des roches continentales à un doublement de CO2 dans l’atmosphère : c’est un niveau qui devrait être atteint avant 2100. D’autre part, pour nous affranchir de l’influence directe des activités agricoles, nous nous sommes focalisés sur une zone arctique pratiquement vierge : le bassin du fleuve Mackenzie dans les Territoires du Nord-Ouest du Canada.

Qu’avez-vous découvert ? Nous avons montré que la consommation de CO2 atmosphérique par dissolution des roches pourrait augmenter de 50 % avant 2100. Il s’agit d’un taux de réponse aux changements clima-tiques comparable à celui de la biosphère conti-nentale, et qui avait été négligé jusqu’ici. Cette augmentation est imputable pour 60 % à une diminution de l’évapotranspiration des plantes due à un haut niveau de CO2 : la circulation de l’eau dans les sols augmente et favorise la dis-solution des minéraux. Les 40 % restants sont causés par le réchauffement et l’augmentation des pluies qui agissent dans le même sens.

[email protected]

u

Les berges du fleuve Mackenzie (© Emilie Beaulieu)

Yves Goddéris,directeur de recherche CNRS au Laboratoire géosciences environ-

nement Toulouse (GET, unité mixte CNRS/UPS/IRD)

Pour en savoirEmilie Beaulieu, Yves Goddéris, Yannick Donnadieu, David Labat, Caroline Roelandt, 2012. High sensitivity of the continental-weathering carbon dioxide sink to future climate change. Nature Climate Change, doi: 10.1038/NCLIMATE1419.

a

Peut-on imaginer que la dissolution des roches limite considérablement l’augmentation du CO2 atmosphérique résultant de l’utilisation des combustibles fossiles ?C’est peu probable : les activités humaines injectent chaque année 8 milliards de tonnes de CO2 dans l’atmosphère, ce qui correspond à ce que la dissolution chimique des roches pourrait consommer en 20 à 30 ans ! La seule solution pour contrecarrer les changements climatiques en cours reste la limitation des émissions. n

Propos recueillis par Nathalie Boudet

avri l 2012 PAUl SAbAtieR 9

Sciences du vivant

Aide à la procréation : quelle efficacité ?L’infécondité, principalement d’origine masculine, reste de pronostic mitigé et seul un couple infertile sur deux réussit à devenir parent. L’âge est un des principaux facteurs limitant ainsi que la qualité de la spermatogenèse. Une étude conduite à partir de plus de 1 000 couples a permis à une équipe toulousaine d’apporter de données statistiques nouvelles. Entretien avec Louis Bujan, responsable de l’étude.

Pour en savoirCumulative parenthood rates in 1735 couples: impact of male factor infertility. Walschaerts M, Bujan L, Isus F, Parinaud J, Mieusset R, Thonneau P. Hum Reprod. 2012 on line.

Mild induced testicular and epididymal hyperthermia alters sperm chromatin integrity in men. Ahmad G, Moinard N, Esquerré-Lamare C, Mieusset R, Bujan L. Fertil Steril. 2012 Mar;97(3):546-53.

a

[email protected]

u

Au moment où l’on fête les trente ans d’Amandine, le premier bébé français obtenu par fécondation in vitro, vous publiez une étude montrant les résultats de la prise en charge des couples inféconds. Comment se conduit une telle étude et que montre-t-elle ?Nous avons effectué le suivi d’une cohorte de couples ayant consulté pour une infécondité, principalement masculine, au centre de stérilité masculine (Hôpital Paule de Viguier, CHU Tou-louse) entre 2000 et 2005. Ces couples ont été recontactés 5 à 9 ans après qu’ils aient bénéficié d’une prise en charge médicale ou chirurgicale de leur stérilité. Les dossiers médicaux ont été analysés par les médecins et les corrélations entre les données du dossier médical et l’exis-tence d’une grossesse ont été étudiées. Parmi les 1131 couples ayant accepté de participer à l’étude, 56% sont devenus parents : 16% grâce à une grossesse naturelle, 8% grâce à un trai-

tement médical ou chirurgical, 32% après une procréation médicalement assistée (PMA). L’âge de l’homme en plus de celui de la femme est un facteur important dans la réussite du projet parental. Les taux cumulés de grossesse à 9 ans sont de 64%, si l’homme et la femme ont moins de 36 ans et chutent à 31% s’ils sont plus âgés.

Quel est l’originalité de ce travail et a-t-il une suite ?Nous avons pris en compte toutes les infécondi-tés masculines et les couples ont été inclus dès la première consultation. Dans la plupart des études les évaluations portent essentiellement sur la femme et ne sont pris en compte que ceux inclus dans un processus d’assistance médicale à la procréation. L’absence de biais de sélection, la taille de la cohorte, les données médicales et biologiques recensées vont permettre de définir les tableaux d’infertilité et de rechercher des modèles permettant de prédire, en fonction des examens effectués, les chances de grossesse et les perspectives thérapeutiques.

Quels sont les messages pour le grand public ?Deux messages nous semblent importants. Pre-mièrement, il faut rappeler que les techniques de PMA, aussi sophistiquées soient-elles, ne résol-vent pas tout, montrant par là que la recherche doit se poursuivre pour identifier les causes et envisager de nouveaux traitements de la stérilité masculine. Deuxièmement, l’âge reste toujours un facteur limitant.

Votre équipe développe d’autres questions de recherche en infécon-dité masculine. Pouvez-vous nous en dire un mot ?Notre groupe travaille également sur l’étude de facteurs de risque pour la fertilité et sur les aspects physiopathologiques des stérilités.

Ainsi, nous venons de démontrer, dans un modèle expérimental humain, qu’une augmen-tation modérée de la température testiculo-épi-didymaire provoquait une chute drastique de la fabrication des spermatozoïdes et une altération importante de la chromatine du spermatozoïde. Il faut noter qu’une altération de la chromatine du gamète peut avoir des conséquences sur le développement embryonnaire et probablement sur la descendance. Ces résultats pour la pre-mière fois rapportés chez l’homme sont de grand intérêt tant pour la compréhension de la stérilité masculine que pour la contraception.

Quelles perspectives pour vos travaux ?Nous souhaitons développer les études sur les effets de certains traitements sur le spermato-zoïde et son génome mais également sur l’em-bryon notamment dans des modèles animaux. Nous tenons particulièrement à développer les liens entre recherche fondamentale et recherche clinique. n

Propos recueillis par Patrick Calvas

a

louis bujan, au premier plan à droite, directeur de l’unité Recherche en fertilité humaine, équipe d’accueil de l’UPS et plusieurs membres de son équipe.

Etude d’une cohorte de 1131 couples ayant une infécondité principalement d’origine masculine : effet de l’âge sur le succès du projet parental.Exemple : 64 % des couples âgés de moins de 35 ans deviennent parents alors qu’ils sont seulement 31 % si leurs âges est supérieur à 35 ans.

PAUl SAbAtieR avri l 2012

1 0

Vie des labosSciences de l’univers

Un article publié récemment dans la revue Nature, décrit la découverte passionnante de deux planètes qui gravitent autour de l’étoile KIC 05807616. Ce travail apporte des indications précieuses sur la destinée des systèmes stellaires et planétaires, comme l’explique Stéphane Charpinet, astrophysicien à IRAP.

Qu’est ce qu’une étoile « géante rouge » ?

Tout comme notre Soleil, une étoile tire son éner-gie de la fusion thermonucléaire de l’hydrogène en hélium dans son cœur. Après des milliards d’années, lorsque le « carburant » hydrogène vient à manquer, le cœur de l’étoile se contracte et son enveloppe se dilate pour donner ce qu’on appelle une géante rouge. A ce stade, le rayon de l’étoile croît considérablement - le Soleil par exemple pourrait atteindre 200 fois son rayon actuel - et d’éventuelles planètes situées à proxi-mité finissent par être absorbées par l’enveloppe stellaire en expansion.

Qu’avez-vous observé dans votre cas ?L’étoile étudiée vient juste de passer ce stade de « géante rouge » et ne ressemble en rien à ces astres volumineux. C’est au contraire une étoile compacte d’à peine 20% du rayon du Soleil pour la moitié de sa masse, car il ne reste de l’ancienne géante rouge que le résidu de son cœur, l’enveloppe ayant complètement disparu. La détection de petites planètes très proches de cette étoile laisse entrevoir un scénario éton-nant : deux planètes géantes gazeuses assez massives, immergées dans l’enveloppe stellaire pendant la phase géante rouge, auraient migré par friction en direction du cœur de l’étoile. Si les

planètes absorbées ont survécu à cette plongée infernale dans l’étoile, elles n’en sont pas sor-ties indemnes. Les petits corps que nous avons observés, dont les dimensions sont comparables à celles de la Terre, ne seraient que les résidus de ces anciennes planètes géantes, soit leur noyau dense plus difficile à détruire

Comment êtes-vous parvenus à observer ce phénomène ?Notre découverte est un peu le fruit du hasard. Notre travail consiste avant tout à observer et analyser les « oscillations stellaires », c’est-à-dire les ondes qui se propagent dans les étoiles. Le satellite Kepler, en orbite autour du Soleil depuis 2009 observe environ 150 000 étoiles simultané-ment et mesure leur brillance en continu sur une très longue base de temps (plusieurs années). En étudiant l’étoile KIC 05807616, distante de 3 850 années-lumière de notre système solaire, nous avons détecté deux très faibles modula-tions périodiques de 5,76 et 8,23 heures attei-gnant à peine 0,005% de la brillance de l’étoile et ne pouvant être attribuées à d’autres causes que la présence de deux corps en orbite. Les va-riations observées sont générées par la réflexion de la lumière de l’étoile sur la surface de ces pla-nètes, et par la différence de température entre leur hémisphère chaud éclairé, et l’hémisphère froid toujours dans l’ombre.

Pour en savoir«A compact system of small planets around a former red-giant star». S. Charpinet, G. Fontaine, P. Brassard, E.M. Green, V. Van Grootel, S.K. Randall, R. Silvotti, A.S. Baran, R.H. Østensen, S.D. Kawaler, & J.H. Telting. Nature, 2011 Dec. 22. DOI 10.1038/nature10631

a

Représentation artistique du système planétaire de l’étoile KIC 05807616, vue depuis l’une des deux planètes. L’étoile centrale, de couleur bleue, est un astre très chaud et compact qui fut autrefois le coeur d’une étoile géante rouge. Contact

[email protected]

u

Deux planètes survivent dans l’enfer d’une géante rouge

Quelles sont les caractéristiques principales de ce système résultant de vos observations ?

Ces deux planètes sont de petite taille (respecti-vement 76% et 87% du rayon de notre Terre) et leur cycle de révolution autour de l’étoile ne dure que 5,76 et 8,23 heures, ce qui indique qu’elles sont très proches de l’étoile. Sachant que l’étoile a une température de surface de 27 500 °C (celle de notre Soleil étant de 5 800 °C), la face éclairée des planètes pourrait atteindre 8 000 à 9 000 °C. Dans un tel enfer de hautes températures, seuls des corps compacts, probablement plus denses que notre Terre, ont une chance de survivre. Il ne resterait donc des planètes pré-existantes, gazeuses à l’origine, que leur noyau de fer et de nickel.

Cette situation préfigure-t-elle le destin de notre système solaire dans des milliards d’années ?On peut être tenté de faire ce lien puisque les planètes les plus proches du Soleil, incluant la Terre, vont être absorbées par le Soleil devenu géante rouge. Mais la situation n’est pas com-parable, car Mercure, Vénus, et la Terre sont de petites planètes dont la masse est sans doute insuffisante pour avoir un impact important sur l’enveloppe de l’étoile. Jupiter pourrait être suffi-samment massive, mais elle est beaucoup trop éloignée du Soleil pour interférer avec son évo-lution durant la phase géante rouge. Il est donc peu probable que le Soleil devienne comme KIC 05807616 dans un avenir lointain. n

Propos recueillis par Guy Lavigne

Stéphane Charpinet,

chargé de recherche CNRS à l’Institut de recherche en astro-physique et plané-

tologie (IRAP, unité mixte UPS/CNRS)

avri l 2012 PAUl SAbAtieR

Sciences de la planète

De l’influence de l’effet de serre sur la salinité des mers tropicales

aPour en savoir

Laurent Terray, Lola Corre, Sophie cravatte, Thierry delcroix, Gilles Reverdin, Aurelien Ribes, 2011 : Near-surface salinity as Nature’s rain gauge to detect human influence on the tropical water cycle. J. of climate, 25, 3, 958-977.

a

le point de départ de votre étude est une analyse d’observations. Pouvez-vous nous expliquer votre démarche ?Dans ce cas précis, on est dans le cadre spécifique de ce qu’on appelle les études de « détection et attribution ». Des changements sont observés et on essaye de savoir s’ils sont inhabituels par rap-port à la variabilité naturelle du climat. Ensuite on doit établir des liens de causalité entre un forçage externe et ces changements observés. Cette étape repose sur une analyse statistique rigoureuse mais aussi sur l’identification de mécanismes physiques plausibles et cohérents.

Comment avez-vous eu l’idée d’associer le changement climatique et la salinité de surface ?L’idée est venue de deux articles parus en 2006 et 2008. Le premier est le papier de Held et Soden où les auteurs montrent sur des argu-ments purement physiques qu’une des consé-quences du changement climatique lié aux gaz à effet de serre est une accentuation des contrastes du cycle hydrologique, ici vu comme le bilan entre les précipitations et l’évaporation.

Le deuxième papier est celui de notre collègue Sophie Cravatte, du Legos, sur les observations de salinité dans le Pacifique tropical. J’avais été frappé par l’amplitude incroyable des change-ments sur quelques décennies, en particulier dans la “piscine” d’eau chaude du Pacifique Ouest. L’idée a alors surgi d’utiliser la salinité de surface comme variable intégratrice des modifications (anthropiques et/ou naturelles) du bilan entre pré-cipitations et évaporation sur les océans tropicaux.

Quelles conclusions tirez-vous de ces analyses ?Ces conclusions sont de deux ordres : la première, confirmée par les données observées in situ est que les tendances de salinité sur la période 1970-2000 et l’accentuation des contrastes décrites dans notre papier semblent se poursuivre et s’étendre à de nouvelles régions. La deuxième est que nous avons de bons arguments pour suggé-rer qu’une partie importante de ces changements est directement liée aux modifications du cycle hydrologique marin résultant de l’augmentation de la concentration des gaz à effet de serre dans l’atmosphère. C’est important car l’impact du changement climatique sur le cycle hydrologique

[email protected]

u

est l’élément clé de la sensibilité du système cli-matique aux perturbations radiatives d’origine anthropique. Notre travail, en s’intéressant à l’océan, théâtre majeur du cycle hydrologique, permet d’ajouter une brique importante à la com-préhension de ces phénomènes complexes.

Peut-on penser que cette tendance va continuer dans les décennies à venir ?Oui. Il peut évidemment y avoir des modulations interannuelle à décennale mais sur le long terme, et encore une fois sur la base d’arguments phy-siques solides, il faut s’attendre à une accentua-tion des contrastes entre les déserts océaniques (régions de forte salinité) et les oasis océaniques (régions de faible salinité).

Quels effets peuvent induire ces changements de salinité ?Ces changements vont affecter la stratifica-tion verticale des océans tropicaux. Ils peuvent avoir des effets importants, par exemple sur l’occurrence des événements El Niño. Une autre conséquence possible pour l’océan Atlantique est que ces eaux tropicales plus salées vont être transportées en quelques décennies par le cou-rant nord Atlantique vers les mers subpolaires et entrer en compétition avec les eaux douces qui s’y trouvent, encore adoucies par l’augmenta-tion des précipitations projetée à ces latitudes. C’est très important, car le subtil équilibre ther-mique et hydrologique des eaux polaires, où la salinité joue un rôle majeur, régule l’intensité de la formation des eaux denses et celle de la circu-lation thermohaline associée. n

Évolution de la salinité de surface, rapportée sur un siècle, pour les observations sur la période 1970-2009 (a) et climatologie observée de la salinité de surface sur la même période (b).

Laurent Terray, directeur du laboratoire Sciences de l’univers au Cerfacs (SUC, unité Cerfacs, associée au CNRS) et Thierry Delcroix, directeur de recherche IRD au Laboratoire d’études en géophysique et océanographie spatiales (LEGOS, unité mixte UPS/CNRS/IRD/CNES)

Une équipe de chercheurs de plusieurs laboratoires toulousains(1), associée à des chercheurs du laboratoire parisien LOCEAN, ont mis en évidence que l’augmentation des contrastes de salinité entre différentes zones des mers tropicales était dû à l’augmentation de l’effet de serre. Entretien avec Laurent Terray, chercheur au Cerfacs.

(1) Les laboratoires toulousains impliqués sont le Laboratoire d’études en géophysique et océanographie spatiales. (LEGOS, unité mixte UPS/CNRS/IRD/CNES) ; le Centre national de recherches météorologiques (CNRM, unité de Météo-France associée au CNRS), l’équipe « sciences de l’univers au Centre européen de recherche et de formation avancée e calcul scientifique (SUC, unité Cerfacs, associée au CNRS). 1 1

a

b

PAUl SAbAtieR avri l 20121 2

Sciences de la planète

Nouveau regard sur le cycle hydrologique de l’HimalayaUn article publié dans Nature Geoscience apporte un éclairage nouveau sur les facteurs qui contrôlent le cycle de l’eau dans l’Himalaya. Ce travail résulte d’une collaboration entre les équipes françaises du GET de Toulouse et de Géosciences Rennes et le Geology institute de Freiberg (Allemagne). Stéphane Bonnet du GET nous parle de cette étude.

Que savait-on jusqu’ici du cycle de l’eau dans cette région du monde ? Dans l’Himalaya, ce cycle est contrôlé au pre-mier ordre par une très forte variation saison-nière du climat, liée à la mousson. Plus de 80 % des précipitations annuelles se produisent de juin à septembre, avec un maxima en juillet et août. On pensait jusqu’ici que le transfert de ces eaux de pluie vers les rivières qui descendent de ces montagnes était modulé essentiellement par deux facteurs : le stockage temporaire de l’eau sous forme de neige et de glace dans les glaciers, et l’évapo-transpiration, c’est-à-dire le transfert des eaux de surface vers l’atmosphère directe-ment par évaporation ou par la transpiration des plantes.

en quoi consiste votre découverte ? Nous avons montré que c’est un autre processus qui régule le plus le cycle annuel de l’eau dans

l’Himalaya, à savoir l’infiltration et la circulation d’une grande partie des eaux de pluie dans les réseaux de fractures des roches du sous-sol puis son re-largage dans les fleuves avec un décalage qui est de l’ordre de 45 jours. Ce processus est très important puisqu’il concerne plus de 60 % de l’eau qui s’écoule dans les fleuves himalayens. Nous montrons que le sous sol himalayen se comporte en quelque sorte comme une véritable éponge.

et comment avez-vous pu montrer cela ? Cette découverte découle de l’analyse de trente années de mesures quotidiennes des précipi-tations et du débit des fleuves himalayens au Népal. Nous avons ensuite utilisé ces données pour une modélisation numérique du processus.

Quelles sont les conséquences d’un tel phénomène ?Ce phénomène a des implications très impor-tantes sur les ressources en eau disponibles pour la population, sur la gestion des crues, sur les barrages hydrauliques qui assurent la majeure partie de la production électrique du Népal, sur les glissements de terrain, qui dépendent de l’état hygroscopique du sous-sol. Enfin, il faut citer l’impact possible sur les changements climatiques, car lors de la circulation de l’eau dans le sous sol, l’hydrolyse des minéraux des roches consomme du CO2, gaz à effet de serre. Cet impact reste aujourd’hui à quantifier.

Comment en êtes-vous venu à étudier ce phénomène ?Je suis géomorphologue, c’est-à-dire que j’étu-die le relief des chaînes de montagne de par le monde et les processus qui les façonnent, c’est-à-dire les processus d’érosion et de transport

de matière. Initialement, notre objectif était de quantifier la vitesse d’érosion des rivières hima-layennes à partir de la mesure de la quantité de matière qu’elles transportent. Très vite, nous nous sommes rendu compte qu’il nous fallait comprendre plus en détail comment évoluait le débit des fleuves au cours du temps et quels facteurs contrôlaient cette évolution. D’où notre étude. C’est une parfaite illustration du fait que les résultats de la recherche fondamentale sont très difficilement prévisibles. Et c’est ce qui fait toute la beauté du métier de chercheur. n

Propos recueillis par Guy Lavigne

Pour en savoirImpact of transient groundwater storage on the discharge of Himalayan Rivers, Christoff Andermann, Laurent Longuevergne, Stéphane Bonnet, Alain Crave, Philippe Davy and Richard Gloaguen, Nature geoscience, 2012 doi:10.1038/ngeo136

a

[email protected]

u

Stéphane Bonnet, professeur UPS et chercheur au

laboratoire Géosciences environnement de

Toulouse (GET, unité mixte UPS/CNRS/IRD)

Débit quotidien du fleuve Narayani au Népal en fonction du taux quotidien de précipitations sur le bassin versant (~ 12 300 points de données répartis sur 34 ans). Le code couleur est lié à la date d’acquisition des données dans l’année. On constate que pour un taux de précipitations identique, le débit est systématiquement beaucoup plus élevé après la mousson qu’avant.

Vie des labos

Vue d’une vallée du Nepal concernée par

cette étude.

avri l 2012 PAUl SAbAtieR 1 3

Trois lauréats du « Cristal » du CNRS en Midi-Pyrénées !Sur les 17 lauréats des Cristals du CNRS en 2012, trois exercent en Midi-Pyrénées. Une première. Créé en 1992, le Cristal du CNRS distingue chaque année des ingénieurs, des techniciens et des administratifs. Il récompense celles et ceux qui, par leur créativité, leur maîtrise technique et leur sens de l’innovation, contribuent aux côtés des chercheurs à l’avancée des savoirs et à l’excellence de la recherche française.

a

emmanuel Vialan

Responsable du service d’opérations immobilières de la délégation Midi-Pyrénées du CNRS, Emma-nuel Vialan a mis en œuvre des projets immobiliers extrêmement novateurs de par leur singularité architecturale, leur thématique scientifique ou leur performance énergétique. C’est ainsi qu’il a par-ticipé depuis 2007 à 3 opérations immobilières emblématiques : le projet d’évolution de la Station d’écologie expérimentale de Moulis ; la réalisation de locaux type « salles blanches » adaptées à l’uti-lisation et au développement d’outils très sensibles d’exploration et de travail de la matière à l’échelle atomique au Cemes et la conception bioclimatique du bâtiment ADREAM sur le site du Laas, un bâtiment économe en énergie dont le défi est de produire plus d’énergie qu’il n’en consomme. Autant d’opérations immobilières pour lesquelles Emmanuel Vialan a su intégrer, dès la genèse du projet, les contraintes et les attentes des utilisateurs afin de servir au mieux la recherche. n

Alain boulanger

Il a intégré le CNRS en 1974 en tant que technicien après une expérience dans l’industrie automobile. Aujourd’hui, ingénieur d’études au Laplace, il coordonne le Service de mécanique et d’études. Grâce à sa capacité d’in-novation, il a élaboré plusieurs ensembles expérimentaux instrumentés permettant au Laplace de s’inscrire dans le peloton de tête mondial des centres de recherche en ce qui concerne l’étude et les applications des plas-mas et des matériaux diélectriques. Il a ainsi participé à la conception et au développement d’enceintes instrumentées de grand volume en environne-ment haute tension et plasmas, domaine extrêmement spécifique et aux contraintes techniques très fortes. A l’occasion de l’une de ses dernières réa-lisations il a dû mettre au point un dispositif équipé d’un canon à électrons et surmonter les problèmes de radioprotection associés. Il se distingue enfin par son fort engagement dans des activités de transfert technologique et de valorisation avec les partenaires industriels et les organismes publics. n

Alain Boulanger, ingénieur d’études CNRS au Laboratoire plasmas et conversion d’énergie (LAPLACE, unité mixte UPS/CNRS/INP). ©A. Labat - UPS

Cristal Cnrs

Textes préparés par Nathalie Boudet et Valeria Medina

Valérie GuilletTout au long de sa carrière et avec une régularité sans faille, Valérie Guillet a allié un fort inves-tissement personnel à des facultés de réflexion, d’imagination, d’ouverture, d’organisation et de coordination d’activités de recherche uniques. Elle a notamment œuvré à la modernisation du plateau de bio-cristallographie et à l’émergence et la structuration de la plateforme PICT. Entre autres réalisations majeures, Valérie Guillet a récemment contribué à la détermination de la première structure cristallographique d’une pro-téine du complexe de la gamma-tubuline. Ses recherches ont contribué au rayonnement de la biologie structurale française et permettent à son laboratoire d’offrir un service de pointe pouvant répondre à un nombre croissant de sol-licitations des équipes de recherche. En un mot, les quinze années d’expériences de Valérie Guil-let ont abouti à de nombreuses contributions de premier plan apportant un éclairage nouveau sur les processus clés du vivant. n

Emmanuel Vialan, ingénieur de recherche à la Délégation Midi-Pyrénées du CNRS. © A. Labat – UPS

Valérie Guillet, ingénieur de recherche

CNRS, à Institut de pharmacologie et de

biologie structurale (IPBS, unité mixte CNRS / UPS).

© François Viala - CNRS – IPBS

1 4 PAUl SAbAtieR avri l 2012

DossierLe cerveau

Un enjeu majeur : décrypter les codes neuronaux Du neurone à la cognition, du gène à la maladie, de l’abeille au primate : l’institut des sciences du cerveau de Toulouse couvre un large champ de recherche multidisciplinaire.

le neurone, élément fondamental consti-tutif du système nerveux est aujourd’hui mieux connu grâce aux progrès de la bio-

logie cellulaire et moléculaire et de la génétique. Décrypter les codes neuronaux qui sous tendent les grandes fonctions cognitives qu’il s’agisse de perception, d’attention, de planification du mouvement, d’apprentissage, de mémoire, de langage ou de pensée constitue un objectif stratégique affirmé de la recherche en neuros-ciences. Cet objectif ne peut être atteint que par une approche multidisciplinaire qui inclut des compétences, des techniques, des modèles diffé-rents et complémentaires. C’est autour de pôles réunissant ces outils que se bâtit cette stratégie. L’imagerie dans ses différentes modalités consti-tue le lien technologique et scientifique commun qui fédère la recherche en neurosciences dans ses composantes intégratives et cognitives. Voir le cerveau fonctionner, identifier les réseaux neu-

IRM (séquence DTI). Visualisation de la connectivité anatomique cérébrale.

ronaux qui sous-tendent les fonctions cognitives et suivre au cours du temps leur activité consti-tue l’objectif commun des chercheurs de l’Insti-tut des sciences du cerveau de Toulouse (ISCT).

l’iSCt est une structure fédérative de recherche, qui a pour objectif de favoriser les interactions entre les différents acteurs de la recherche en neurosciences de Toulouse en associant une recherche fondamentale et une recherche finali-sée autour de l’élucidation des mécanismes des fonctions cognitives et de leurs dysfonctionne-ments au cours de maladies du système nerveux. Il dispose d’une IRM3T (IRM à 3 teslas) dédiée à la recherche.

Un siteInauguré en octobre 2011, le site réhabilité du pavillon Baudot à Purpan regroupe environ 220 personnes (chercheurs, cliniciens, ingénieurs

François Chollet, professeur de neurologie, directeur de l’Institut des sciences du cerveau

de Toulouse et Yves Trotter, directeur-adjoint de l’ISCT et directeur de recherche

CNRS au Centre de recherche cerveau et cognition (CERCO, unité mixte UPS/CNRS).

1 5avri l 2012 PAUl SAbAtieR

Le cerveau

Les six laboratoires de l’ISCTL’ISCT regroupe six laboratoires ou équipes : Le

Centre de recherche cerveau et cognition (Cerco,

unité mixte UPS/CNRS) ; le Centre de recherche

sur la cognition animale (CRCA, unité mixte

UPS/CNRS) ; le laboratoire Imagerie cérébrale

et handicaps neurologiques (ICHN, unité mixte

Inserm/UPS) ; le Laboratoire d’adaptation

perceptive motrice et apprentissage (Lapma,

équipe UPS) ; l’unité de recherche interdisciplinaire

Octogone (université de Toulouse-Le Mirail) et le

pôle de neurosciences clinique de Purpan.

[email protected]@cerco.ups-tlse.fr

u

et étudiants) sur 2 000 m2 de locaux tertiaires, autour d’un plateau technique modernisé et renouvelé. Porté par l’Inserm, le CNRS, l’UPS, l’université du Mirail et le CHU de Toulouse, ce projet a bénéficié du soutien des collectivités et de l’Etat à travers deux plans Etat-Région suc-cessifs.

Un large éventail de compétencesC’est en fait une collaboration entre des disci-plines telles que la neurophysiologie intégrative, les neurosciences cognitives, la neurologie cli-nique, la neuropsychologie, la pharmacologie, la linguistique, la neuro-imagerie, la neuro-anatomie et la biologie du développement du cerveau qui constitue le moteur de l’ISCT autour d’échanges à la fois théoriques, métho-dologiques et technologiques. Dans ce cadre, diverses fonctions cérébrales telles que la vision, l’audition, l’olfaction, la motricité, le langage, l’apprentissage et la mémoire sont étudiées à travers des méthodologies complémentaires qui nécessitent à la fois une approche clinique, phar-macologique et une approche expérimentale chez l’animal (avec un continuum de l’abeille au primate), l’homme sain et le patient. C’est ainsi que les équipes regroupent des compétences dans une large variété de domaines touchant à la fois aux sciences de la vie, aux sciences de l’ingénieur et aux sciences humaines et sociales.

De gros équipements de neuroimagerieCes équipes bénéficient de la mise en commun de gros équipements de neuro-imagerie fonc-tionnelle associant IRM, TEP, potentiels évoqués, et stimulation magnétique transcrânienne pour l’étude des primates humains et non-humains. Leur complémentarité permet de valider et renforcer l’interprétation des observations, à la base de nouveaux champs de recherche que ce soit dans le domaine fondamental ou clinique. Il est maintenant possible de justifier en termes de circuit neuronal des hypothèses psychologiques spécifiques sur le comportement et de sou-mettre à une expérimentation rigoureusement contrôlée le problème des relations entre le cer-veau et la cognition. C’est bien là que se trouve l’objectif de l’ISCT qui, en mettant en parallèle ces techniques, sera capable de décrire les opé-rations neuronales, localisées dans des struc-tures cérébrales identifiées et mises en jeu lors des différentes fonctions cognitives étudiées.

Des modèles et des approches complémentairesLes connaissances chez l’homme restent glo-bales, et certains niveaux de description des

corrélats structure/fonction (connectivité céré-brale, caractérisation des activités neuronales qui sous-tendent ces fonctions) restent inac-cessibles. Ces connaissances fines nécessitent des méthodes d’investigation invasives et ne peuvent être réalisées que chez l’animal. Au sein de l’ISCT, l’approche physiopathologique clinique et neuropsychologique, qui analyse les perturbations fonctionnelles liées aux lésions cérébrales chez l’homme est menée en parallèle avec l’expérimentation animale invasive qui met en relation l’activité neuronale et les fonctions intégrées.

elucider les mécanismes des fonctions cognitivesUn des objectifs-clef des chercheurs de l’Institut consiste à élucider le fonctionnement cérébral dans ses fonctions les plus élaborées. L’approche intégrée à l’échelle de l’organe permet grâce aux différents modèles et aux différentes techniques d’approcher ces fonctions de façon transversale et cohérente. C’est le cas par exemple pour la mémoire qui fait l’objet d’une approche multiple fondamentale à travers des modèles animaux et humains et appliquée à travers des patients por-teurs d’affections neuro-dégénératives. Quelques exemples sont présentés dans ce dossier.

Déficits neurologiques et maladies du système nerveuxCette approche intégrée trouve ainsi un terrain d’investigation privilégié dans le domaine de la caractérisation des déficits neurologiques et de leurs mécanismes, dans le champ de la réorganisation cérébrale, de la récupération fonctionnelle, ainsi que dans la prise en charge des handicaps faisant suite à diverses lésions

IRM fonctionnelle. Réseau fonctionnel de la motricité

activé au cours d’un mouvement de doigts.

cérébrales aiguës ou chroniques. Certaines thé-matiques en particulier font l’objet de dévelop-pements parallèles et complémentaires au sein des différentes formations de l’institut. C’est le cas du vieillissement et de la maladie d’Alzhei-mer et des maladies neurodégénératives ou neurovasculaires qui font l’objet d’une approche transversale allant de la caractérisation de per-turbations motrices ou cognitives sur des mo-dèles de souris porteuses de plaques amyloïdes ou de lésions focales jusqu’au diagnostic IRM de l’épaisseur corticale et à l’évaluation thérapeu-tique en imagerie moléculaire fluorée chez les patients en passant par l’élucidation de dysfonc-tionnements dans le champ de la catégorisation visuelle. n

1 6 PAUl SAbAtieR avri l 2012

DossierLe cerveau

MémoiresLa mémoire humaine est compartimentée. L’identification et la caractérisation de ses différents systèmes a été une des grandes avancées des neurosciences cognitives de ces dernières décennies.

Ces systèmes constituants la mémoire humaine sont relativement indépen-dants les uns des autres et peuvent être

affectés de manière sélective par différentes pathologies et en particulier par les maladies neurodégénératives. Par exemple, la maladie d’Alzheimer affecte la mémoire déclarative (mémoire sémantique et mémoire épisodique) mais laisse intacte la mémoire procédurale qui est-elle altérée dans la maladie de Parkinson ou la maladie de Huntington. La mémoire déclara-tive dépend d’un ensemble de structures situées dans la partie interne des lobes temporaux, dont la plus connue est l’hippocampe. C’est cette par-tie interne du lobe temporal qui est en particulier étudiée par les chercheurs toulousains spéciali-sés dans la mémoire.

troubles de la mémoireDes chercheurs du Cerco et du Laboratoire ima-gerie cérébrale et handicaps neurologiques s’in-téressent de manière conjointe à l’organisation intrinsèque de la mémoire déclarative. Leurs tra-vaux ont permis d’évaluer la mémoire de patients souffrant de lésions cérébrales focales (accidents vasculaires cérébraux-AVC, encéphalites) ou de lésions plus diffuses (maladie d’Alzheimer). Un de leurs thèmes de recherche vise à montrer les corrélats neuronaux qui existent entre la mémoire de rappel et la mémoire de reconnais-sance qui seraient sous-tendues par des régions différentes de la partie interne du lobe temporal (l’hippocampe et les régions sous-hippocam-piques, respectivement). Dans un travail sur la

maladie d’Alzheimer à un stade très précoce, ils ont combiné des techniques d’imagerie dif-férentes. Ceci a permis de préciser les lésions structurales (IRM), métaboliques (PET scan au glucose) et moléculaires (PET scan AV45, spé-cifique de l’amyloïde) en lien avec l’apparition des troubles de la mémoire déclarative. Dans un autre cadre nosologique, les chercheurs du Cerco conduisent une étude chez des patients épileptiques pharmaco-résistants. Le but de cette étude est de montrer, à l’aide d’électrodes intracérébrales mises en place dans le cadre des soins apportés aux patients, la diminution tem-porelle et spatiale de l’activité cérébrale dans des tâches de mémoire. Ces travaux sont réalisés en lien avec des médecins du CHU de Toulouse.

Normalisation de la mémoireUne équipe de l’Unité de recherche interdisci-plinaire Octogone de l’université de Toulouse le Mirail travaille sur une population de patients présentant une épilepsie du lobe temporal mé-dian ou de patients ayant subi une lobectomie temporale dans le but de contrôler une épilepsie pharmacorésistante. Ce travail de recherche porte sur la mémoire autobiographique et la mémoire des faits publics. Dans un groupe de patients présentant ce type d’épilepsie il a été montré l’existence d’un déficit de la mémoire des faits publics et du rappel d’épisodes autobiogra-phiques, avec une sémantique personnelle pré-servée. Certains patients ont été re-testés un an après une lobectomie temporale. Cette chirurgie n’a pas eu d’impact sur la mémoire autobio-

graphique et la mémoire des faits publics. En revanche, cette étude a mis en évidence, unique-ment dans le groupe ayant subi une lobectomie droite, une normalisation de la mémoire auto-biographique, pour le rappel d’épisodes person-nels ayant eu lieu après l’intervention.

Stress post-traumatiqueLa mémoire chez le rongeur et en particulier le rôle de l’hippocampe et de sa région CA3, dans les processus de consolidation et de reconsoli-dation de la mémoire est le thème de recherche d’une équipe du Crca. Ce dernier processus est très important, car la réactivation d’une trace mnésique préalablement consolidée la rend à nouveau labile. Afin de re-stabiliser cette trace réactivée et de la stocker de nouveau à long terme, celle-ci doit subir un processus nommé “reconsolidation”. Il est donc possible d’agir sur cette reconsolidation mnésique et de moduler ou d’effacer un souvenir en bloquant la synthèse ou la dégradation protéique au moment de la réactivation du souvenir. On a réussi à bloquer la reconsolidation d’un souvenir aversif chez l’ani-mal grâce à un béta-bloqueur, le propranol. En collaboration avec le Service de psychiatrie, du CHU de Toulouse des résultats similaires ont pu être obtenus chez des patients souffrants d’un syndrome de stress post-traumatique. n

[email protected] ; [email protected] ; [email protected] ; [email protected]

u

Emmanuel Barbeau, chargé de recherche CNRS au Centre de recherche cerveau et cognition (Cerco, unité mixte UPS/CNRS) ; Virginie Voltzenlogel, maître de conférences de l’université du Mirail dans l’unité de recherche interdisciplinaire Octogone ; Pascal Roullet, professeur UPS au Centre de Recherches sur la Cognition Animale (Crca, unité mixte UPS/CNRS) et Jérémie Pariente, maître de conférence UPS et praticien hospitalier au Laboratoire imagerie cérébrale et handicaps neurologiques (ICHN, unité mixte UPS/Inserm)

A : Cerveau humain en coupe sagittale (hippocampe en orange et régions sous hippocampiques en bleu) ; B : Cerveau de rongeur

A B

1 7avri l 2012 PAUl SAbAtieR

Le cerveau

Le cerveau révélé par l’imagerie multimodalePour explorer le cerveau humain en fonctionnement, il faut disposer de marqueurs qui, soumis à l’imagerie, mettent en relief des fonctions spécifiques. De tels biomarqueurs sont mis au point et validés sur les plateaux techniques de l’Institut des sciences du cerveau de Toulouse (ISCT).

[email protected], [email protected] et [email protected]

u

impossible aujourd’hui de comprendre com-ment fonctionne le cerveau sans disposer d’instruments d’imagerie médicale. Ces ins-

truments sont à l’origine d’un nombre important d’avancées.

AtrophieLa majorité des travaux actuels, en neuroima-gerie structurale, se focalise sur la mesure de l’atrophie comme marqueur des modifications physiologiques et physiopathologiques. Mais, d’autres marqueurs des modifications micros-tructurales sont utilisables en IRM. En effet, l’IRM permet de mesurer également le dépôt de fer, l’intégrité et l’orientation microstructu-rale. Les équipes de l’ISCT ont ainsi montré que l’IRM était capable de faire la distinction entre cerveaux de patients parkinsoniens et cerveaux de sujets sains, au cours d’une étude impliquant 30 patients parkinsoniens et 22 sujets contrôle. Un simple examen d’IRM a permis à partir de plusieurs mesures simultanées, de diagnostiquer avec plus de 95% de fiabilité la maladie de Parkin-son et donc de révéler sa « signature cérébrale ».

laboratoire d’excellenceA l’ISCT, de nouveaux traceurs dans le domaine des neurosciences et notamment dans les pa-thologies liées aux troubles cognitifs, à l’isché-mie cérébrale et à la neuroinflammation sont développés. Les synthèses sont réalisées grâce à une plateforme permettant la fluoration et le contrôle qualité en conditions radiopharmaceu-tiques. L’ISCT bénéficie de la proximité immé-diate d’une caméra TEP couplée à un appareil de Tomodensitométrie. La combinaison de ces deux techniques permet l’exploration in vivo en TEP de nombreux processus physiologiques et physio-pathologiques après injection des radio pharma-ceutiques. Ces avancées ont été récompensées en février 2012 par l’obtention du LABEX IRON (Innovative Radiopharmaceuticals in Oncology and Neurology). De nombreux projets transla-

tionnels et cliniques sont actuellement en cours utilisant la complémentarité du TEP et de l’IRM. Par exemple, un traceur de la plaque amyloïde en TEP et une mesure de l’épaisseur corticale en IRM sont actuellement utilisés dans diffé-rents protocoles afin de mieux comprendre les mécanismes physiopathologiques de la maladie d’Alzheimer.

Précision temporelleEnfin, l’électro-encéphalographie (EEG) est une technique qui permet d’enregistrer l’acti-vité électrique du cerveau grâce à des dizaines d’électrodes placées au niveau du scalp. Si elle est moins indiquée que l’IRM pour isoler précisé-ment les zones cérébrales participant à chaque mécanisme cognitif, elle est par contre très pré-cise sur le plan temporel. Ainsi l’on peut suivre à l’échelle de la milliseconde la dynamique de l’ac-

Patrice Péran, chargé de recherche Inserm (UMR825, unité mixte Inserm/UPS), Pierre Payoux, professeur universitaire et hospitalier, chercheurs au laboratoire imagerie cérébrale et handicaps neurologiques (ICHN, unité mixte Inserm/UPS), et Ruffin VanRullen, directeur de recherche CNRS au Centre de recherche cerveau et cognition (CerCo, unité mixte UPS/CNRS)

tivation cérébrale, ou s’intéresser à des rythmes os-cillatoires rapides de plusieurs dizaines de cycles par seconde, fréquemment observés dans des tâches de traitement sensoriel. Comme l’ont montré des tra-vaux récents de l’équipe CREMe du CerCo, on peut ainsi détecter certains rythmes qui peuvent indiquer un état de perte de vigilance ou «divagation atten-tionnelle». La perception visuelle, quant à elle, va et vient de manière périodique en suivant la phase d’un rythme EEG spécifique.Loin de s’exclure mutuellement, ces techniques de neuroimagerie apparaissent donc tout à fait com-plémentaires. n

Signature IRM multiparamétrique de la maladie de Parkinson.

Substance noire Dépôt de fer

Substance noireperte de l’orientationmicrostructurale

StriatumPerte de l’intégritémicrostructurale

1 8 PAUl SAbAtieR avri l 2012

DossierLe cerveau

Percer les secrets du système visuelL’homme est d’une exceptionnelle efficacité dans sa perception du monde qui l’entoure. Une efficacité qui s’appuie essentiellement sur la vision qui occupe chez le primate environ le tiers du cortex.

Par leurs spécificités et la diversité de leurs approches, les laboratoires de l’ISCT peuvent aborder les différentes facettes de

la vision, qu’elle soit normale ou pathologique. L’originalité de l’ISCT est de s’intéresser à la vi-sion le long de multiples continuum : de la vision des stimuli simples à celles de stimuli étholo-giques, de la vision préattentive à la vision atten-tive, de la vision de l’abeille à celle du singe, de la vision de l’enfant à celle de l’adulte, de celle du système biologique à celle des systèmes artificiels.

Vision épisodiqueD’importants résultats ont été obtenus ces der-nières années, qui bouleversent parfois certaines idées reçues. Ainsi, si la perception visuelle nous semble continue, nous avons montré que l’exci-tabilité corticale dans le système visuel fluctue périodiquement en suivant le rythme oscilla-toire « alpha » (autour de 10 Hz). La perception visuelle ne serait donc pas continue dans le temps mais procéderait de façon épisodique, à la manière d’une caméra vidéo.Le cerveau est également capable de privilé-gier une région importante de l’espace : celle du « droit devant ». Pour analyser en détail un objet nos yeux vont se poser dessus afin que l’image de l’objet se forme sur la « fovéa », la région de la rétine la plus dense en récepteurs. Mais il nous arrive de tourner les yeux vers un objet d’inté-rêt (une boutique par exemple) tout en conti-nuant à marcher dans la rue. L’image du « droit devant » se forme donc sur la rétine périphérique beaucoup moins performante. Le cerveau traite alors cette région de l’espace de façon très spé-cifique. Ainsi, lorsque le déplacement de nos

yeux amène le champ récepteur d’un neurone du système visuel dans la région du « droit devant » on constate une augmentation de la réponse du neurone. Un stimulus y est détecté plus rapide-ment que dans une zone de même excentricité par rapport à notre point de fixation.

Saccades oculairesLes saccades oculaires nous permettent d’explo-rer le monde. Ethologiquement, s’il peut être fatal de déclencher un mouvement vers un objet dangereux, il n’est pas coûteux de faire une saccade erronée, il suffira de la corriger. L’utili-sation d’un test de choix saccadique qui utilise ces réponses rapides a permis de contraindre de façon draconienne les limites temporelles du fonctionnement du système visuel. Nous avions déjà montré l’impressionnante rapidité de l’homme à catégoriser des animaux, des visages ou des véhicules dans des scènes naturelles. Les réponses manuelles les plus précoces étaient observées avec des latences de 250-70 milli-secondes (ms). Mais c’est avec une latence de seulement 120 ms que l’on peut bouger les yeux vers un animal, une durée réduite à 100 ms si les yeux doivent s’orienter vers un visage ! La com-plexité des traitements qui doivent être réalisés dans ce laps de temps mettent à mal les actuels modèles de reconnaissance d’objets et soulèvent la question des voies cérébrales utilisées dans de tels comportements.

Vision améliorée par l’auditionMais la perception de notre monde n’est pas uni-quement visuelle, elle est multisensorielle. La vi-sion peut ainsi permettre d’améliorer un percept médié par une autre modalité comme l’audition. Nous avons récemment démontré l’importance jouée par l’apprentissage. Ainsi, en utilisant une seule oreille, la localisation spatiale d’un son est difficile, pourtant les performances s’améliorent après quelques séances d’entraînement durant lesquelles le son est associé à une information visuelle congruente. Un tel mécanisme ouvre les portes à des stratégies de réhabilitation basées sur les interactions multimodales chez des patients atteints de surdité profonde et porteurs d’un implant cochléaire. n

[email protected]@cerco.ups-tlse.fr

u

Lorsque le champ récepteur périphérique d’un neurone de l’aire visuelle primaire est porté dans l’axe «droit devant» par la déviation du regard on observe une augmentation de son activité.

Michèle Fabre-Thorpe, directrice de recherche CNRS et Simon Thorpe, directeur de recherche CNRS, respectivement directrice et directeur-adjoint du Centre de recherche cerveau et cognition (CerCo Unité mixte CNRS-UPS)

Le cerveau miniature de l’abeilleL’abeille est un modèle animal pour l’étude de la vision. Les abeilles perçoivent et apprennent des couleurs et des formes quand ces stimuli sont appariés avec de la solution sucrée. Récemment, leur capacité à catégoriser des stimuli visuels a été mise à jour. D’autre part, l’imagerie calcique a dévoilé un traitement rétinotopique complexe dans leur cerveau. Ces recherches menées au CRCA (unité mixte UPS/CNRS) montrent comment le cerveau miniature des abeilles réalise des performances visuelles sophistiquées.

1 9avri l 2012 PAUl SAbAtieR

Le cerveau

La plasticité cérébraleLe cerveau possède des capacités d’adaptation étonnantes. Bien comprises, elles peuvent être mises à profit pour récupérer de l’habileté après une lésion cérébrale ou améliorer l’audition...

[email protected] [email protected] [email protected] [email protected]

u

la plasticité cérébrale est un mécanisme par lequel le cerveau modifie sa structure et son fonctionnement pour adapter le comporte-

ment aux challenges de l’environnement ou de l’état physiologique. Cette plasticité s’exprime depuis les réseaux cérébraux jusqu’aux régula-tions génétiques au sein même des neurones. Plusieurs laboratoires de l’ISCT s’intéressent à ces phénomènes de plasticité chez l’humain et l’animal, dans des perspectives fondamentales ou cliniques.

Récupération motriceL’équipe «Innovation thérapeutique dans la pathologie vasculaire cérébrale» du laboratoire Imagerie cérébrale et handicaps neurologiques s’intéresse aux stratégies thérapeutiques qui auront un impact majeur sur les traitements cliniques de l’accident vasculaire cérébral (AVC), première cause de handicap. Leurs travaux indiquent qu’il faut solliciter la plasticité céré-brale spontanée et plus précisément l’activité cérébrale du côté lésé. Une stimulation non inva-sive focalisée sur ce cortex cérébral s’avère assez efficace sur la récupération motrice. De plus, le Prozac, un antidépresseur, module la plasti-cité cérébrale et aide les patients à retrouver leur indépendance. D’autres espoirs reposent sur les bioprothèses (thérapie cellulaire combinée à des biomatériaux) que cette équipe s’emploie à tes-ter chez l’animal.

Améliorer la coordinationLorsque nous vieillissons, la coordination des deux mains s’altère, entraînant des difficultés dans les activités de type boutonnage, piano-tage etc. Les travaux de l’équipe « Programme de recherche en sciences du sport et du mouvement humain » visent à améliorer ces coordinations. Leurs travaux indiquent que les performances psychomotrices des personnes âgées s’amé-liorent lorsqu’on les fait interagir avec d’autres stimulations sensorielles. Si on demande à des sujets de produire des coordinations bimanuelles complexes en synchronisation avec le rythme d’un métronome auditif (sons), visuel (images) ou multimodal (sons + images), il apparaît que les sujets âgés utilisent autant les informations multimodales que les informations auditives seules pour améliorer la stabilité et la précision de leur coordination. Ainsi, la plasticité cérébrale permettrait d’optimiser la communication entre aires cérébrales responsables de l’intégration des informations multimodales chez les sujets âgés.

Réhabilitation d’une surditéLes capacités de plasticité du cerveau jouent un rôle prépondérant dans le succès de la réhabi-litation d’une surdité profonde par un implant cochléaire. Une équipe du Cerco, associée au ser-vice ORL du CHU Purpan, explore chez le sourd profond les modifications des aires du cerveau

privées d’entrées auditives puis la récupération de la compréhension de la parole après une neu-roprothèse. Durant la longue période de surdité, les régions dédiées au traitement de l’audition sont colonisées par la vision. Ceci reflète un mé-canisme de vicariance développé par les patients qui s’appuient sur la lecture labiale pour la com-préhension du langage. Après implantation co-chléaire, cette réorganisation régresse au fur et à mesure que les patients récupèrent l’audition. Ces travaux sont encourageants pour la réha-bilitation par l’implant, basée sur le potentiel de plasticité corticale du patient et combiné à une rééducation adaptée.

troubles de la mémoireLa formation de la mémoire repose sur des modifications du fonctionnement cérébral qui mettent en jeu la plasticité cérébrale. L’équipe « Mémoire, plasticité et vieillissement » du Crca traque ces modifications cérébrales chez la sou-ris saine ou modèle de la maladie d’Alzheimer. Leurs travaux montrent que la mémorisation requiert la synthèse de nouvelles protéines au sein de l’hippocampe, siège de la mémoire. Plus étonnant, d’autres protéines doivent être dégra-dées pour que le souvenir subsiste. Des études de l’équipe indiquent aussi que les nouveaux neurones qui naissent dans le cerveau adulte participent au codage de la mémoire. Ce pro-cessus est perturbé chez les souris modèles de la maladie d’Alzheimer et pourrait contribuer aux troubles de la mémoire qui caractérisent cette pathologie. n

Claire Rampon, chargée de recherche CNRS au Centre de recherche sur la cognition animale (Crca, unité mixte UPS/CNRS) ; Jessica Tallet, maître de conférences UPS au Laboratoire Adaptation Perceptivo-Motrice et Apprentissage (LAPMA, équipe UPS), Isabelle Loubinoux, directeur de recherche Inserm au Laboratoire Imagerie cérébrale et handicaps neurologiques (ICHN, unité mixte UPS/Inserm) et Pascal Barone, directeur de recherche CNRS au Centre .de recherches cerveau et cognition (Cerco, unité mixte UPS/CNRS)

Nouveaux neurones (en vert) dans l’hippocampe de souris adulte. (Au centre) Activation du réseau de compréhension de la parole visuo-auditive chez des patients implantés cochléaire. Scanner d’une insertion d’un implant dans la cochlée d’un patient sourd profond. (à droite) Guidage neuronal sur bioprothèse cérébrale.

2 0 PAUl SAbAtieR avri l 2012

DossierLe cerveau

Comment le cerveau traite le langageLe langage figure parmi les fonctions cérébrales les plus complexes et joue un rôle primordial dans la relation de l’homme avec son environnement et en particulier avec les autres humains. L‘étude de son substrat cérébral est un vrai défi pour les chercheurs et nécessite le recours à des méthodes combinées et pluridisciplinaires.

longtemps, l’étude des mécanismes céré-braux impliqués dans le traitement du lan-gage n’a été possible qu’à travers l’étude

des pathologies du langage – tant chez des patients cérébrolésés suite à un accident cardio-vasculaire (AVC), que chez des personnes souf-frant d’une tumeur, d’une maladie dégénérative ou d’un trouble développemental (dyslexie par exemple). Aujourd’hui, les données de la patho-

Dans les dyslexies du développement, l’évaluation de l’effet de l’entraînement des habiletés phonologiques vs. visuo-orthographique par des mesures comportementales et la méthode des potentiels évoqués a permis de montrer que ces entraînements ont des effets différenciés en fonction de la tâche et en fonction du type de dyslexie. Ici nous voyons la « modulation de l’activité cérébrale » à la suite de la présentation visuelle de lettres après entraînement phonologique.

logie peuvent être complétées par celles obte-nues avec les différentes méthodes d’imagerie cérébrale utilisables également avec des sujets sains. Ainsi nous avons pu explorer, grâce à l’IRM et la TEP principalement, les réseaux neuronaux du langage dans plusieurs populations. Chez le sujet sain, les résultats ont permis d’identifier des voies différentes pour l’analyse sémantique (voie ventrale, passant par le lobe temporal) et phonologique (voie dorsale, passant par le lobe pariétal). Par ailleurs, l’intervention relative de chaque hémisphère, plus bilatérale pour la com-préhension et plus latéralisée à gauche pour la production du langage, a été explorée.

RécupérationAu niveau des pathologies du langage, plusieurs travaux ont cherché à comprendre quels sont les mécanismes par lesquels le cerveau lésé après un AVC peut réorganiser son fonctionnement pour récupérer un comportement linguistique efficace (ou non) après une aphasie. Nous avons ainsi montré que cette plasticité cérébrale peut avoir recours aux aires immédiatement voisines de celles détruites par l’AVC, au sein de l’hémis-phère gauche qui est l’hémisphère principal pour la fonction linguistique. Lorsque ces aires péri-lésionnelles gauche peuvent être ré-utilisées pour les fonctions linguistiques, la récupération est meilleure que lorsque le langage doit utiliser des aires plus distantes, en particulier au sein de

l’hémisphère droit. Par ailleurs, l’exploration des aires cérébrales jouant un rôle dans la récupéra-tion à la suite d’une rééducation orthophonique, suggère que les aires péri-lésionnelles gauches sont plus à même de supporter une bonne récu-pération du langage que celles de l’hémisphère droit, pourtant symétriques des aires détruites. L’étude de la dynamique des systèmes neuro-fonctionnels au cours de l’adaptation au handi-cap permet ainsi de développer et d’améliorer des options thérapeutiques, en particulier à des stades précoces de la maladie.

le siège de l’écritureUne combinaison d’une technique d’inactiva-tion transitoire de l’activité corticale au cours d’interventions neurochirurgicales en condition « chirurgie éveillée » et de l’IRM fonctionnelle a permis d’étudier la fonction d’une des régions liées à l’écriture: le cortex pré-moteur supérieur. Cette zone, désignée au siècle dernier par Exner comme « aire de l’agraphie », a ainsi formelle-ment été identifiée comme siège de l’écriture. La même technique permet d’explorer les aires intervenant dans le traitement des différentes langues chez une personne plurilingue. Les résultats, encore préliminaires, suggèrent que le traitement d’une langue apprise plus tardive-ment sollicite souvent des aires plus étendues à l’intérieur des aires du langage que des langues acquises de façon précoce. De plus, le cortex pré-frontal dorsolatéral, par exemple, semble jouer un rôle essentiel dans le contrôle et la sélection de la langue appropriée.Avec un nombre croissant de sujets plurilingues dans le monde, les recherches sur le traite-ment de chacune des langues se développent aujourd’hui rapidement. Le développement de recherches interdisciplinaires entre linguistique et neurosciences permet d’aborder de nouveaux champs d’études portant sur des fonctions lin-guistiques plus complexes telles que la pragma-tique ou la prosodie par exemple. n

[email protected] & [email protected] & [email protected]

u

Xavier de Boissezon, professeur universitaire hospitalier UPS et chercheur au laboratoire imagerie cérébrale et handicaps neurologiques (ICHN, unité mixte Inserm/UPS), Barbara Köpke, professeur, et Mélanie Jucla, maître de conférences à l’université de Toulouse le Mirail à l’unité de recherches interdisciplinaires Octogone-Lordat (équipe d’accueil de l’Université du Mirail).

Structure tridimensionnelle d’Ara h 3, l’un des allergènes majeur de l’arachide. Structure complexe composée de 2 homotrimères liés par des liaisons électrostatiques. Construit par modélisation moléculaire avec les logiciels Insight II, Homology et Discover 3. © P Rougé, Faculté de Pharmacie de Toulouse

Innovation

[email protected]

u

Bientôt une cacahuète hypoallergénique« Traces d’arachides ». Cette mention obligatoire sur les emballages de nombreuses denrées, vise à limiter les risques d’allergies alimentaires en augmentation constante. Face à ce problème de santé publique, des chercheurs du laboratoire PHARMA-DEV (unité mixte IRD/ UPS) et la société Soficor Menguy’s ont déposé un brevet sur un procédé de préparation d’un aliment à allergénicité fortement réduite. Annick Barre, professeur à l’UPS, nous explique sa solution.

Pourquoi s’intéresser aux arachides ?L’allergie à l’arachide est une allergie alimentaire grave qui touche une proportion importante de la population française, environ 500 000 personnes. Les symptômes sont généralement sévères et nécessitent l’administration de traite-ments d’urgence. Cette allergie apparaît très tôt dans l’enfance. C’est la 2e cause d’allergie chez les enfants de moins de 3 ans et la 1re allergie chez les enfants à partir de 3 ans. Jusqu’ici, les pistes explorées par des équipes de recherche aux Etats-unis (amélioration génétique, élabo-ration d’arachides OGM à faibles teneurs en allergènes ou traitement physico-chimique des graines) ne donnaient pas de résultats suffisam-ment fiables pour un développement commercial.

Comment apparaît une telle allergie alimentaire ?Cette allergénicité est due à l’existence d’aller-gènes protéiques dont la plupart ont été identi-fiés : des protéines de réserve de la graine : Ara h1 (vicilline), Ara h 2 (albumine 2S) et Ara h 3/Ara h 4 (légumine). Ces protéines contenues dans les corps protéiques des graines vont inte-ragir avec les anticorps des patients allergiques et entraîner la dégranulation des mastocytes et la libération de plusieurs médiateurs (histamine, sérotonine, leucotriènes…) à l’origine des mani-festations allergiques graves.

Quelle est l’originalité de votre travail ? Notre projet avait pour objectif de mettre au point un procédé non polluant capable d’éli-miner la majorité de ces allergènes. Nous nous sommes orientés vers une approche physico-chimique non polluante capable de respecter l’innocuité et les propriétés gustatives et nutri-tionnelles de l’arachide sans induire de toxicité

associée. Cette approche repose sur la dénatu-ration des allergènes majeurs de l’arachide par un procédé complexe en plusieurs étapes faisant intervenir une homogénéisation à ultra haute pression de la matrice alimentaire. Cela permet d’obtenir un homogénéisat constitué de la qua-si-totalité des protéines allergènes initialement contenues dans les corps protéiques des graines. Ces protéines ainsi solubilisées subissent alors un traitement de dégradation (probiotiques utilisés dans l’industrie alimentaire) qui permet de diminuer leur allergénicité d’au moins 90%. L’absence d’allergénicité de l’homogénéisat est ensuite vérifiée à l’aide de sérums de patients allergiques par des analyses en Western blot et test ELISA.

Quelle est la nature de la collaboration avec la société Soficor-Menguy’s ?Soficor est un grand groupe industriel inventeur de la première arachide française il y a 10 ans. Sur le segment graines, cette entreprise est le leader en France et le n° 3 en Europe. L’augmentation des allergies à l’arachide a été le point de départ d’une collaboration tripartite : notre équipe de recherche pour les approches biochimiques et immunologiques et les études structurales des protéines, le service d’allergologie de l’Hôpital des enfants du CHU de Purpan/Toulouse pour la validation clinique de l’hypoallergénicité des arachides et Soficor-Menguy’s. La réunion de ces partenaires académique, hospitalier et industriel, avec le soutien financier de la région Midi-Pyrénées, a permis d’associer des savoir-faire complémentaires.

Quelles perspectives votre brevet ouvre-t-il ?Ce brevet concerne la mise au point d’un procédé d’atténuation de l’allergénicité de l’arachide qui

peut s’appliquer à d’autres aliments allergé-niques : fruits à coque, céréales. Il représente une avancée très significative dans la gestion au quotidien du risque allergique. n

Propos recueillis par Aude Olivier

Jean-Philippe Borges (post-doctorant), Annick Barre (professeur à l’UPS, responsable de l’équipe), Camille Gironde, (chercheur contractuel), Etienne Brunet (doctorant), Stéphanie Caze-Subra (Ingénieur d’étude UPS), Pierre Rougé (professeur UPS émérite), membres de l’équipe « Protéines à activités oncologiques et pharmacologiques » au sein du laboratoire Pharma-Dev (unité mixte UPS/IRD).

Pour en savoirBrevet n° FR 12 50977 (date de dépôt : 02/02/2012). « Procédé de préparation d’aliment hypoallergénique ». Inventeurs : Barre Annick, Brunet Etienne, Caze-Subra Stéphanie, Cormouls-Houles Nicolas, Le Mouel Vincent, Rougé Pierre

a

2 1avri l 2012 PAUl SAbAtieR

PAUl SAbAtieR avri l 2012

2 2

Innovation

Visualiser pour la première fois in vivo la production de microARN Visualiser dans une cellule humaine vivante les premières étapes de la production des microARN : voici l’exploit réalisé pour la première fois par une équipe du LBME. Rencontre avec Jérôme CAVAILLE, responsable de cette équipe.

Pouvez-vous décrire le contexte scientifique dans lequel s’inscrivent vos travaux ?Au cours de la dernière décennie, de nombreux travaux ont montré qu’une fraction importante des génomes de mammifères, vraisemblable-ment plus de 98%, est susceptible de générer des molécules d’ARN qui, contrairement aux ARNm, ne portent pas d’information génétique permettant la production de protéines. L’explo-ration de ce nouveau « monde des ARNs » - on parle d’ARN non-codant (ARNnc) - bouleverse actuellement notre compréhension de l’orga-nisation, de l’expression et de l’évolution des génomes. Parmi les ARNnc les plus étudiés, les microARN (miARN) sont sans conteste actuelle-ment sur le devant de la scène et font intervenir des mécanismes apparentés à l’ARN interfé-rence, mécanismes dont la découverte en 1998 a été récompensée par le prix Nobel de physiologie et de médecine (2006) attribué à Craig Mello et Andrew Fire.

Qu’est-ce qu’un miARN ?Les miARN, comme leur nom l’indique, sont de minuscules molécules d’ARNnc dont la taille avoisine la vingtaine de nucléotides. On estime à 500, peut-être 1000, le nombre de gènes de miARN présents dans le génome humain. Dans la cellule, les miARN demeurent en perma-nence associés à des protéines, notamment les

protéines Argonautes, et forment des particules ribonucléoprotéiques stables appelées miRNP. Par des mécanismes partiellement élucidés, l’in-teraction ARNm/miRNP provoque l’inhibition de la traduction et/ou la dégradation de l’ARNm, et donc in fine la mise en silence, partielle ou totale, de l’activité du gène-cible. Ce sont des véritables interrupteurs moléculaires. Par leur faculté à inhiber de nombreux ARNm, de l’ordre de 30-50% des gènes humains, les miARN exercent de multiples fonctions régulatrices dans une grande variété de processus physiologiques, comme la balance entre prolifération et différenciation cellulaire.

Comment peut-on résumer votre nouveau résultat ?La production d’un miARN est un phénomène complexe qui débute dans le noyau par la syn-thèse d’un long ARN précurseur: le pri-miARN. Le pri-miARN est reconnu et clivé par le Micro-processeur, un complexe protéique faisant intervenir l’enzyme Drosha et son partenaire DGCR8. En étudiant une région chromosomique riche en miARN - le locus C19MC porté par le chromosome 19 humain - nous avons pu dissé-quer les modalités de la reconnaissance du pri-miARN par le Microprocesseur. Cette approche d’imagerie à fluorescence permet de visualiser et de suivre le comportement du Micropro-cesseur au sein du noyau de cellules vivantes.

De manière inattendue, dans les choriocarci-nomes humains, le locus C19MC séquestre une grande fraction du Microprocesseur comme en témoigne l’accumulation de forts signaux de fluorescence au voisinage des gènes C19MC.

Quelles perspectives offrent ces résultats ?Nous souhaitons comprendre comment l’ex-pression des gènes est organisée et régulée au sein du noyau. Néanmoins, nous envisageons aussi d’exploiter notre capacité à suivre l’acti-vité du Microprocesseur dans des expériences de criblages à haut débit visant à identifier de nou-veaux facteurs cellulaires ou entités chimiques capables de moduler, positivement ou négative-ment, l’activité du Microprocesseur. Cette idée du crible a conduit récemment au dépôt d’un brevet (1). A plus long terme, on peut par exemple imaginer le développement de drogues capables de stimuler, ou au contraire d’inhiber, le Micro-processeur et donc par voie de conséquence moduler la production des microARNs. n

(1) : International patent application PCT/FR2010051974

Propos recueillis par Jean-François Arnal

Pour en savoirBellemer Clément, Bortolin-Cavaillé Marie-Line, Schmidt Ute, Jensen Stig Mølgaard Rask, Kjems Jørgen, Bertrand Edouard, and Jérôme Cavaillé. Microprocessor dynamics and interactions at endogenous imprinted C19MC microRNA genes J Cell Sci jcs.100354; Advance Online Publication March 5, 2012, doi:10.1242/jcs.100354.

a

[email protected]

u

Le locus C19MC génère de nombreux pri-miARN (ici révélés par hybridation in situ, bleu) qui séquestrent le Microprocesseur (ici révélé par des immunomarquages avec des anti-corps dirigés contre DGCR8 (rouge) et Drosha (vert)). Note: un seul site de transcription par noyau est visualisé car le locus C19MC est régulé par l’empreinte génomique parentale, c’est-à-dire seul l’allèle d’origine paternelle génère des pri-miARN.

Marie-Line BORTOLIN-CAVAILLE (Ingénieur de recherche, CNRS), Jérôme CAVAILLE (Directeur de Recherche, CNRS) et Clément BELLEMER (Doctorant) au Laboratoire de biologie moléculaire euca-ryote (LBME, unité mixte UPS/CNRS)

le Potentiel de Recherche de l’Université Paul Sabatier se répartit sur 66 laboratoires, la plupart unités mixtes avec le CNRS, l’iNSeRM, l’iRD, l’iNRA, le CNeS… 1500 enseignants-chercheurs, 950 chercheurs, 1200 personnels techniques et administratifs travaillent dans ces laboratoires..

les quatre grands pôles de recherche sont :

> MSt2i (Mathématiques et Sciences et technologies de l’information et

de l’ingénierie) : 5 laboratoires mixtes, 1 laboratoire CNRS, 3 eA, 5 fédérations

> UPee (Univers, Planète, espace, environnement) : 7 laboratoires mixtes,

1 Observatoire

> SM (Sciences de la matière) : 9 laboratoires mixtes, 3 laboratoires CNRS,

2 Fédérations

> SV (Sciences du vivant) : 21 laboratoires mixtes, 1 laboratoire iNRA,

11 eA, 7 Fédérations

À ces quatre pôles, il faut ajouter un axe : CiGeDil (Communication, information,

Gestion et Didactique des langues) : 1 eA et 2 unités universitaires

eA : équipe d’accueil

1700 doctorants sont inscrits à l’UPS, répartis dans 11 Écoles Doctorales, dont 6 pilotées par l’UPS.

la Recherche à l’UPS

www.ups-tlse.fr rubrique “recherche”

aInfos en

© O

MP

© P

. DU

MA

s

a

bobinage de l’aimant intérieur ayant permis de faire l’impulsion de champ magnétiqueLe Laboratoire National des Champs Magnétiques Intenses a généré un champ magnétique de 81.3 teslas. Pour la première fois au monde, l’impulsion de champ dépasse les 70 teslas sur une durée plus grande que 10 millisecondes. Les aimants gigognes ayant permis ce record ont été développés au laboratoire. Ils permettront l’étude des propriétés fondamentales des matériaux nouveaux et nano-objets en champ magnétique très intense.laboratoire National des Champs Magnétiques intenses (lNCMi - CNRS/UPS/iNSA/Université de Grenoble)Copyright : ©William Knafo – lNCMi

La science en images