Par le

Dallas, le 22 novembre 1963. Walt Cisco, Dallas Morning News/Wikipedia

L’assassinat de John Kennedy : 60 ans de théories du complot

Dallas, le 22 novembre 1963. Walt Cisco, Dallas Morning News/Wikipedia
David Colon, Sciences Po

Ce fut l’une des dates les plus marquantes du XXe siècle : le 22 novembre 1963, il y a exactement soixante ans aujourd’hui, John Fitzgerald Kennedy était assassiné à Dallas. Deux jours plus tard, son assassin supposé Lee Harvey Oswald, 24 ans, était abattu à son tour par un patron de boîte de nuit, Jack Ruby, dont les motivations restent à ce jour peu claires.


Aujourd’hui encore, cet épisode historique donne lieu à d’innombrables interrogations que les enquêtes successives diligentées par les autorités américaines, en 1963-1964 puis en 1976-1979 n’ont pas totalement levées. David Colon, professeur agrégé d’histoire et enseignant à Sciences Po, spécialiste des théories du complot, auteur notamment en 2021 de « Les Maîtres de la manipulation. Un siècle de persuasion de masse », répond ici à nos questions sur la diffusion et l’impact des théories complotistes liées à l’assassinat de JFK – des théories, souligne-t-il, largement propagées par les services secrets soviétiques.

Quand les premières théories complotistes sur l’assassinat de JFK apparaissent-elles ?

Pratiquement dès le 22 novembre 1963. Le KGB lance le 26 novembre 1963 l’opération Dragon, qui vise d’abord à détourner de l’URSS les soupçons américains – des soupçons d’autant plus forts qu’Oswald avait vécu en URSS et était un sympathisant communiste.

L’opération, qui implique des investissements importants de la part du KGB, vise ensuite à éroder la confiance des citoyens américains dans leurs institutions en attribuant la mort de leur président à la CIA.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

En 1964, cette thèse est diffusée par le rédacteur stalinien d’un journal britannique contrôlé par le KGB, Labour Monthly, puis par un éditeur new-yorkais secrètement financé par le KGB, Carl Aldo Marzani, qui publie le premier livre popularisant la thèse du complot de la CIA : Oswald : Assassin or Fall Guy?.

Le journaliste américain Victor Perlo, également rétribué par le KGB, rédige une critique élogieuse de cet ouvrage, qui paraît en septembre 1964 dans le New Times, une façade du KGB imprimée secrètement en Roumanie.

Aujourd’hui, il est beaucoup question de « typosquatting », avec Doppelgänger, une opération du renseignement russe qui consiste à imiter des médias occidentaux et à installer ces faux sites sur des adresses URL qui ressemblent aux vraies. C’est une pratique très ancienne, puisque le KGB faisait déjà la même chose, avec les moyens de l’époque, il y a 60 ans.

La désinformation soviétique à destination des pays étrangers liée à l’assassinat de Kennedy s’inscrivait-elle dans une tradition établie ?

Oui. Avant le KGB, il y a eu le NKVD, avant lui la Guépéou, avant encore la Tchéka, et du temps du tsarisme l’Okhrana ; tous ces services avaient eu recours à des méthodes de ce type. Les services du tsar avaient notamment forgé, on s’en souvient, l’un des faux les plus célèbres de l’histoire, Les Protocoles des Sages de Sion, afin d’offrir une justification aux pogroms anti-juifs. Ce texte a d’ailleurs été, quelques décennies plus tard, traduit en arabe par le KGB et diffusé dans les pays arabes dans le cadre de la politique soviétique de la guerre froide. Ce qui est nouveau, avec l’opération Dragon, c’est sa durée et son efficacité.

Sa durée parce que, à ma connaissance, cette opération est toujours active : ceux qui dirigent aujourd’hui la Russie relancent très régulièrement les supputations. Vladimir Poutine en personne, intervenant en 2017 à la télévision américaine, sur NBC, a explicitement mentionné la théorie selon laquelle ce seraient les Américains eux-mêmes qui auraient assassiné leur président. On lui demandait s’il avait interféré dans l’élection présidentielle américaine de 2016, qui s’était soldée par l’arrivée de Donald Trump à la Maison Blanche : il a réagi en ressortant cette théorie sur Kennedy, affirmant que puisque les Américains ont pu tuer leur président en 1963, ils auraient aussi bien pu, plus de cinquante ans plus tard, monter de toutes pièces des accusations infondées visant la Russie.

Quant à son efficacité, elle se mesure à la proportion d’Américains qui adhèrent à cette théorie. En 1963, 52 % des Américains croyaient qu’il avait été victime d’un complot. En 1976, ce chiffre était passé à 81 %. C’est justement en 1976 que le KGB a relancé son opération visant à diffuser l’idée qu’il y aurait aux États-Unis un « deep state » – une sorte de structure parallèle prenant les vraies décisions.

Cette idée de « deep state » avait commencé à être diffusée dès 1957, par les services est-allemands, qui avaient publié dans le Neues Deutschland, le journal officiel de la RDA, une lettre secrète qui aurait prétendument été adressée au président des États-Unis, Dwight Eisenhower, par le président de la Standard Oil Nelson Rockefeller. Il ressortait de cette fausse lettre que la Maison Blanche était l’instrument de puissants instruments capitalistes, et qu’elle leur donnait la priorité au détriment des intérêts du pays.

À la fin des années 1970, une enquête parlementaire américaine a conclu que la commission Warren, qui en 1963 avait décrété qu’Oswald avait été l’unique tireur et avait agi de son propre chef, était allée trop vite en besogne, et que la possibilité d’un complot n’était pas à exclure… sans aller jusqu’à incriminer la CIA.

Effectivement. Mais le narratif soviétique, d’après lequel la CIA a assassiné Kennedy, n’en a pas moins largement imprégné les esprits. Qu’on en juge par le film « JFK », d’Oliver Stone, sorti en 1991. Il reprend totalement les théories diffusées par le KGB dans le cadre de l’opération Dragon, d’après lesquelles le président aurait été la victime d’un vaste complot impliquant le complexe militaro-industriel commandité par nul autre que son vice-président Lyndon Johnson, qui lui a succédé à la Maison Blanche.

Pour autant, cela ne signifie évidemment pas que Stone et les journalistes et autres écrivains colportant ces thèses aient été stipendiés par le KGB ! La bonne désinformation, comme le disait Andropov lui-même, est celle qui trouve dans les sociétés ciblées des relais de bonne foi qui vont l’amplifier.

Le KGB n’a pas créé la théorie du complot, mais il l’a largement amplifiée, si bien qu’elle s’est auto-propagée au point de devenir une sorte de lieu commun aux États-Unis. Et une fois que vous avez convaincu une large partie des Américains que leur président a été tué par leurs propres services de sécurité, vous avez affaibli leur confiance dans leur système, dans leurs institutions, dans la démocratie elle-même. C’est cela, l’objectif. Ce travail de sape, qui avait commencé bien avant 1963, a été démultiplié avec l’assassinat de Kennedy, et s’est poursuivi par la suite, y compris avec la chute de l’URSS, comme on l’a vu avec toutes ces théories sur le 11 Septembre, les Illuminati, le groupe de Bilderberg, le Covid depuis peu, et ainsi de suite.

Des théories dont le mouvement Qanon est un relais actif…

Tout à fait. Ce mouvement est d’ailleurs en partie opéré depuis la Russie. Le fameux « Q » publie sur le forum 8Kun, qui est hébergé sur un serveur à Vladivostok. Et ses théories sont volontiers répétées par les propagandistes russes, et inversement. Ce mouvement reprend tous les thèmes complotistes qui étaient jusqu’ici diffusés par la Russie.

Le rassemblement Qanon à Dallas en 2021 pour accueillir John Kennedy Jr,. supposé réapparaître ce jour-là 22 ans après sa mort et apporter son soutien à Donald Trump, est lié aux théories relatives à l’assassinat de JFK lui-même : son fils, sachant que son père avait été assassiné par « le système » et qu’il était lui-même ciblé, aurait fait croire à son propre décès puis se serait caché pendant plus de deux décennies…

Encore une fois, il y a à la base de cette histoire la croyance profondément ancrée chez de nombreux Américains que Kennedy a été tué suite à un complot ; à partir de là, toutes sortes de théories nouvelles, aussi insensées soient-elles, peuvent naître.

Aujourd’hui, un Américain sur trois dit croire que son gouvernement est contrôlé en secret par un « deep state ». La propagation de ce type de croyances s’explique bien sûr en bonne partie par l’essor des réseaux sociaux ; mais à l’origine, il y a cette défiance envers tout ce qui est « mainstream » qui a été démultipliée depuis 1963.

On constate en effet sur les réseaux sociaux que les croyances complotistes sont souvent associées : les personnes qui épousent le discours russe sur la question de l’Ukraine ont également plus tendance que les autres à se montrer sceptiques sur l’origine humaine du changement climatique ou sur la vaccination, par exemple…

Évidemment. En la matière, il convient de distinguer la propagande authentique de la propagande inauthentique. Cette dernière est celle qui est mise en œuvre par des fermes de trolls et de bots contrôlées par le GRU. La propagande authentique, elle, est diffusée par des gens de chair et de sang assis devant leur ordinateur qui adhèrent à ces théories complotistes. Et celles-ci, effectivement, s’alimentent mutuellement.

Une fois que vous avez réussi à convaincre quelqu’un que Kennedy a été assassiné à l’issue d’un complot impliquant la CIA, le FBI et ainsi de suite, que Ben Laden n’est pas à l’origine du 11 Septembre ou, plus encore, que la Terre est plate, alors vous pouvez lui faire croire n’importe quoi. L’objectif essentiel des services de renseignement russes, mais aussi chinois, est de saper le cadre même sur lequel se construit la vérité, ce que Michel Foucault appelait « le régime de vérité ». Si vous parvenez à détruire cela, à rendre suspects les gens dont le métier est de distinguer le vrai du faux, alors vous encouragez un scepticisme généralisé, et vous instaurez ce que l’on appelle depuis maintenant un certain nombre d’années « l’ère post-vérité ».

Cette ère post-vérité n’est pas, en soi, le produit des ingérences informationnelles russes ou aujourd’hui chinoises. Il n’en reste pas moins qu’elle est le principal véhicule par lequel les États autoritaires fragilisent l’espace du débat dans les régimes démocratiques. À rebours de la formule de l’ancien ambassadeur américain à l’ONU Daniel Patrick Moynihan, on pourrait dire aujourd’hui que chacun a droit non seulement à ses propres opinions, mais aussi à ses propres faits.

Tout cela pourrait contribuer au retour de Donald Trump à la Maison Blanche en 2024…

Oui, mais il n’est pas le seul à bénéficier de cette tendance – il suffit de regarder le résultat de la présidentielle qui vient de se tenir en Argentine. En ce moment, j’aime citer ce passage de L’Étrange défaite de Marc Bloch consacré à la désinformation déployée dans la presse française de l’entre-deux-guerres à la fois par les fascistes et par les communistes :

« Ce peuple français auquel on remettait ainsi ses propres destinées et qui n’était pas, je crois, incapable, en lui-même, de choisir les voies droites, qu’avons-nous fait pour lui fournir ce minimum de renseignements nets et sûrs, sans lesquels aucune conduite rationnelle n’est possible ? Rien en vérité. »

La question aujourd’hui est de savoir comment donner à nos concitoyens les informations sûres qui leur permettront de faire des choix rationnels pour ne pas être l’objet d’opérations de désinformation de la part d’États hostiles. Nous avons besoin de rétablir un espace public intègre, tant numérique que médiatique, et de préserver le régime de vérité sur lequel reposent nos démocraties.

David Colon, Professeur agrégé d'histoire à l'IEP de Paris, Sciences Po

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Photo de Ása Steinarsdóttir sur Unsplash

Séismes et volcans : que se passe-t-il en Islande ?

David Pyle, University of Oxford et Tamsin Mather, University of Oxford

Une série intense de séismes a secoué la péninsule de Reykjanes dans le sud-ouest de l’Islande, vendredi 10 novembre. Des centaines de tremblements de terre ont été détectés par les réseaux régionaux de sismomètres et plusieurs ont été suffisamment forts pour être ressentis à Reykjavik, à 50 kilomètres de là.

Une alerte de protection civile a été déclenchée avertissant du risque d’une éruption volcanisme – ce serait la quatrième depuis 2021.

Pourquoi ce phénomène se reproduit-il ? Que pourrait-il se passer ?

L’Islande à cheval sur un fossé d’effondrement

L’Islande chevauche la dorsale médio-atlantique, où les plaques nord-américaine et eurasienne s’écartent l’une de l’autre d’environ 2 centimètres par an. Dans le manteau terrestre, où les roches se comportent comme des caramels très rigides, les plaques peuvent se déformer de façon continue.

Mais près de la surface, les roches de la croûte terrestre sont froides et cassantes : elles ne s’étirent qu’en se brisant. Comme si l’on tirait sur les extrémités d’une barre de chocolat dont l’intérieur est tendre mais la coque dure, la tension accumulée au fur et à mesure que les plaques s’écartent est libérée par à-coups lorsque l’enrobage se brise.

La péninsule de Reykjanes forme la pointe sud-ouest de l’Islande, où le rift médio-atlantique sort de la mer. À cet endroit, la croûte terrestre répond à des forces tectoniques inexorables, en se brisant toutes les quelques centaines d’années, ce qui forme un fossé d’effondrement (ou rift).

La dernière séquence de rupture de la croûte et d’éruptions s’est produite il y a plus de 800 ans. Depuis, les plaques devraient s’être écartées d’environ seize mètres.

Nous nous trouvons actuellement dans une nouvelle phase de rupture, marquée par des centaines ou des milliers de tremblements de terre, dont beaucoup sont suffisamment importants pour être ressentis dans le sud-ouest de l’Islande. Tous sont provoqués par l’arrivée de magma près de la surface.

Chaque tremblement de terre et éruption libère un peu de l’énergie emmagasinée dans ces plaques tectoniques et, à terme, lorsque cette tension aura été complètement relâchée, les éruptions cesseront. Au cours des 50 dernières années, nous avons assisté à plusieurs poussées similaires de ruptures et d’éruptions dans le monde.

De 1975 à 1984, 18 séries de tremblements de terre et neuf éruptions de lave ont frappé le nord de l’Islande – un épisode appelé « Krafla fires ». Entre 2005 et 2010, 14 séries de tremblements de terre et trois éruptions se sont produites le long d’une section de 80 kilomètres d’une vallée du rift dans l’Afar, au nord de l’Éthiopie.

Les ruptures de la croûte sont « lubrifiées » par la présence de magma – comme au niveau des autres dorsales océaniques. Le magma se forme continûment en profondeur et sa densité le destine à remonter.

Au sein de la croûte rigide et cassante, le magma ne peut se propager qu’en suivant les fractures – et s’il y en a, donc. Mais une fois qu’il commence à monter, il se fraye un chemin vers des zones de moins en moins profondes, ce qui augmente le risque d’éruption.

La vue d’en haut

Les scientifiques du Bureau météorologique islandais peuvent détecter ce qui se passe en profondeur et localiser les moindres secousses à l’aide de réseaux de sismomètres. Ces instruments alertent l’équipe sur les nouvelles ruptures de roches dans la croûte terrestre et leur localisation.

Des capteurs communiquant avec des constellations de satellites de navigation peuvent fournir des mesures locales des minuscules mouvements de la surface de la Terre. Les images satellites radar permettent de cartographier en 3D et de mesurer la forme de cette surface en évolution.

La série de tremblements de terre qui a commencé fin octobre est le plus récent d’une séquence d’événements qui a commencé début 2020 et qui a jusqu’à présent culminé lors des trois éruptions du système volcanique Fagradalsfjall, dans le sud-ouest de l’Islande, en 2021, 2022 et à l’été 2023.

Lorsque les tremblements de terre ont commencé cette fois-ci, ils se sont concentrés aux alentours d’un autre système volcanique – Thorbjörn, à 10 kilomètres à l’ouest de Fagradalsfjall. Au début, il n’y a pas eu de déformation visible de la surface de la Terre, et il n’était pas clair s’il s’agissait « juste » d’un réajustement de la croûte terrestre à l’épisode précédent de ruptures.

Puis, les signaux ont montré que la surface de la Terre commençait à se bomber, indiquant que du magma neuf entrait dans la croûte. Au cours du week-end dernier, la situation a évolué rapidement. La taille, le nombre et la localisation des tremblements de terre indiquaient tous le remplissage d’une fracture de la croûte par du magma, à une profondeur d’environ 5 kilomètres.

Le magma a continué à pénétrer, et les extrémités de la fracture se sont ouvertes, ouvrant un chemin à travers la croûte jusqu’à ce que le « dike » – ce filon de roche infiltré dans une fissure – atteigne une longueur d’environ 15 kilomètres. Le magma n’a pas encore atteint la surface, mais les mouvements du sol et les modèles informatiques suggèrent qu’un bassin de magma s’est accumulé à moins d’un kilomètre de la surface.

Une éruption est-elle imminente ?

À l’heure où nous écrivons ces lignes, il semble très probable que ce magma atteindra la surface et déclenchera une éruption. Mais les équipes de surveillance ne sauront quand et où cela arrivera que lorsqu’elles auront détecté des signaux spécifiques de magma en mouvement. Ces signes peuvent inclure le « bourdonnement » répétitif de trémors volcaniques, signalant que le magma peut entrer en éruption dans les heures qui suivent, ou des tremblements de terre se multipliant à de très faibles profondeurs.

Pour l’instant, le dike semble s’étendre directement sous la ville de Grindavik, une communauté de pêcheurs située au sud-ouest de l’Islande. S’il y a une éruption à la surface, elle sera probablement similaire aux éruptions de 2021-2023 à Fagradalsfjall : une fissure qui s’ouvre à la surface de la Terre, des fontaines de roche en fusion rouge et chaude, de la lave descendant la colline qui s’éloigne du site de l’éruption.

La menace dépendra donc de l’endroit où l’éruption commence et de la distance parcourue par la lave. Les fumées libérées par le magma en éruption combinées à la combustion de la tourbe et de la végétation pourraient aussi créer un air toxique, en fonction de la vitesse des éruptions et de la direction des vents.

Si une éruption se produit dans la ville de Grindavik, les effets pourraient être similaires à ceux de l’éruption d’Eldfell en 1973, qui a enseveli une partie de la ville de Heimaey. D’où l’évacuation préventive de la ville, de la centrale géothermique voisine de Svartsengi et du Lagon bleu, l’une des attractions touristiques les plus connues d’Islande.

Si une éruption se produit à l’extrémité sud du dike, qui s’étend au large, l’éruption sera sous-marine : la rencontre entre lave chaude et eau de mer pourrait générer des explosions de petite échelle et des nuages de cendres locaux, et la mer en ébullition pourrait libérer des gaz toxiques.

Même si les effets d’une telle éruption n’étaient probablement pas aussi étendus que ceux de l’éruption de l’Eyjafjallajökull en 2010 – qui a entraîné la fermeture de l’espace aérien au-dessus d’une vaste zone de l’Europe du Nord pendant plusieurs semaines, même une petite éruption sous-marine ajouterait aux défis que les autorités doivent gérer… même dans un pays aussi bien préparé que l’Islande.

David Pyle, Professor of Earth Sciences, University of Oxford et Tamsin Mather, Professor of Earth Sciences, University of Oxford

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Adaptée d'une bande-dessinée, la série The Walking Dead comprend 11 saisons. Elle raconte l'histoire d'un petit groupe de survivants dans un monde post-apocalyptique en proie à une invasion de zombies. AMC

Le zombie, monstre préféré du XXIe siècle ?

Adaptée d'une bande-dessinée, la série The Walking Dead comprend 11 saisons. Elle raconte l'histoire d'un petit groupe de survivants dans un monde post-apocalyptique en proie à une invasion de zombies. AMC
Célia Mugnier, Université de Lorraine

Le zombie serait-il le monstre emblématique du XXIe siècle ? Certains chercheurs ont remarqué une augmentation du nombre de fictions apocalyptiques mettant en scène ces êtres faits de chair en décomposition depuis les années 2000.

Longtemps confiné à la paralittérature, le zombie connaît à présent une audience nouvelle ; plus respectable qu’avant, il a été récupéré par la BBC qui en a fait une série (In the Flesh, 2013), ou encore par un auteur américain couronné de plusieurs prix littéraires, Colson Whitehead (Zone One, 2011). Le mort-vivant serait-il en train de zombifier la culture canonique ? C’est ce que suggère le titre de l’ouvrage de Seth Grahame-Smith, Pride and Prejudice and Zombies (Orgueil et Préjugés et Zombies), réécriture parodique du célèbre roman de Jane Austen, porté à l’écran en 2016. Enfin, le blockbuster World War Z (2013), adapté du best-seller de Max Brooks, avec Brad Pitt en héros triomphant, a consacré la contagion de la culture populaire par le fléau zombie, qui se confirme plus récemment avec la série The Walking Dead, inspirée des bandes-dessinées du même nom - 11 saisons déjà diffusées, et un spin-off à venir.

Comment expliquer un tel succès ? En ces temps de pandémie, le zombie nous rappelle à quel point nous sommes vulnérables à une contagion planétaire, lui qui se répand comme une traînée de poudre, suscitant réactions de panique et stratégies de survie plus ou moins efficaces. Le réchauffement climatique ranime également la crainte d’un « virus zombie » libéré par le permafrost sibérien, menace conservée intacte pendant des millénaires, soudainement mise au jour par la fonte des glaces. Le zombie est une métaphore polyvalente, qui incarne diverses anxiétés de son époque.

Zombies, différences ethniques et transgression des frontières

De ses origines haïtiennes à aujourd’hui, le zombie a changé de visage à de multiples reprises. Il désignait au commencement les victimes de sortilèges vaudous, qui pouvaient aussi bien ranimer les morts, que détruire la conscience d’un être vivant pour en faire une chose malléable. À ce titre, le zombie est aussi une figure du lavage de cerveau, d’un homme vidé de sa substance spirituelle. Dans le contexte esclavagiste nord-américain, il est devenu une métaphore de l’esclave revenu d’entre les morts, ou mort parmi les vivants, rendu semblable à une chose par un labeur harassant et inhumain dans les champs de coton. Puis, lors de la Grande Dépression de la fin du XIXe siècle (1873-1896), poursuivie quelques années après par la crise de 1929, le zombie a changé de couleur, passant du noir au blanc, pour devenir un symbole des travailleurs blancs précaires et paupérisés par le ralentissement de la machine capitaliste. Aujourd’hui encore, les zombies sont liés aussi bien à l’exclusion sociale qu’aux différences ethniques.

L’héritage ethnique du zombie se retrouve dans la représentation de la crise migratoire des pays pauvres du sud vers les pays du Nord. À ce titre, les récits de zombies sont une métaphore ambivalente : sont-ils favorables aux migrants, représentés par les non infectés fuyant le fléau, avec qui lecteurs et spectateurs se trouvent en empathie ? Ou bien diabolisent-ils au contraire la figure du migrant zombie ? Comme le migrant, le zombie est un « autre » perçu comme un danger, un être qui menace de nous envahir et de nous transformer en lui-même, altérant notre identité (la série britannique In The Flesh montre bien comment les morts-vivants incarnent des peurs xénophobes).

Le zombie déferle comme les vagues migrantes, sans qu’il semble possible de mettre fin à sa course à l’aide d’un quelconque mur, tôt ou tard franchi par les damnés. L’une des affiches spectaculaires du blockbuster World War Z montre un empilement invraisemblable de goules, tenant en équilibre par un miracle de la gravité, tentant de rejoindre l’hélicoptère qui comprend des hommes encore en vie. L’image du mur qui cède face à la vague des zombies est topique dans les représentations du genre, et ne peut qu’évoquer d’autres murs et frontières destinés, partout dans le mur, à repousser les indésirables. De ce point de vue, les morts-vivants sont évidemment politiques, et les chercheurs des cultural studies anglo-américaines ont tendance à décrypter le zombie comme un objet culturel révélateur de tendances progressistes ou conservatrices.

Zombies et crise écologique

Si le zombie consacre l’échec des frontières à contenir les migrants, il renvoie aussi à l’échec de l’être humain à contenir la crise climatique. Dans le livre World War Z, signé Max Brooks, les réfugiés remontent du Sud vers le Nord, car les zombies gèlent dans le grand Nord ; difficile de ne pas songer aux mouvements migratoires causés par le réchauffement planétaire. L’auteur donne également la voix à un militant écologique :

« Vous voulez savoir qui a perdu la Guerre des Zombies ? Qui l’a vraiment perdue, je veux dire ? Les baleines. »

Image de la sixième extinction massive, la guerre des zombies métaphorise nos préoccupations environnementales. De même, les cendres qui recouvrent la surface de la Terre, visibles depuis l’espace, sont dues aux corps des zombies que l’on fait brûler partout dans le monde ; mais une telle fumée ne peut qu’évoquer la pollution. Dans Zone One, les cendres des zombies retombent sur le corps des héros comme des résidus d’une marée noire (Whitehead, 90). Enfin, le zombie en tant que corps carnassier renvoie également à notre consommation de viande, souvent pointée du doigt aussi bien pour des raisons d’exploitation animale, que pour les émissions de CO? qu’elle implique.

Zombies, exploitation et société de consommation

Corps dévorants, les morts-vivants sont aussi des consommateurs forcenés, images de nous-mêmes face au dernier I-Phone. Le zombie mange tout ce qu’il peut trouver, sans conscience ni discernement : à ce titre, il peut symboliser le rapport au monde induit par un capitalisme effréné, poussant à consommer toujours plus. Dans les films de zombies, depuis le classique de George Romero, La Nuit des morts-vivants (1968), il n’est pas rare de voir les héros se ruer sur les grands magasins pour dévaliser les provisions, accompagnés de caddies remplis par la crainte de manquer. De même, les héros se réfugient parfois dans de grands centres commerciaux, pensant échapper à la menace en soutenant un état de siège. Mais ce n’est pas en s’enfermant dans un gigantesque supermarché que les héros parviennent à s’en sortir, et la société de consommation n’offre qu’un refuge transitoire.

Le zombie, à la fois mort et vivant, renvoie aussi au système financier néolibéral, qui, tout en révélant de plus en plus ses limites, continue d’imposer ses règles. L’idée que nous serions soumis à la loi d’un système moribond a sans doute inspiré les manifestants

lors du mouvement « Occupy Wall Street ».

Amy Bride montre comment, lors de la crise de 2008, une banque insolvable néanmoins soutenue par le gouvernement, comme Goldman Sachs pendant la crise des subprimes, a été désignée dans les médias comme une « banque zombie », prête à infecter les marchés financiers (Bride, 2019). La crise financière a ainsi entraîné une nette inflation de vocables formés à partir du mot « zombie » pour désigner les errements du néolibéralisme.

Corps et dents, les morts-vivants sont des métaphores polysémiques, qu’ils renvoient aux flux migratoires, au réchauffement climatique, à la spéculation financière, ou encore au lavage de cerveau. De plus en plus, les zombies intègrent le vocabulaire courant dans le monde anglo-américain : ainsi nos homologues parlent de « zombie forest », « zombie energy », ou encore « zombie enterprises. » À n’en pas douter, la langue française devrait être rapidement infectée par les goules.

Célia Mugnier, ATER en études culturelles, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Différentes parties de notre cerveau contribuent à nos frayeurs et aux souvenirs qu'elles laissent et qui conditionnent souvent nos nouvelles peurs. Samer Daboul/Pexels, CC BY

Ce qui se passe dans notre cerveau quand on a peur

Différentes parties de notre cerveau contribuent à nos frayeurs et aux souvenirs qu'elles laissent et qui conditionnent souvent nos nouvelles peurs. Samer Daboul/Pexels, CC BY
Ana Margarida Pinto, École normale supérieure (ENS) – PSL

De l’inconfort poignant d’être seul dans une ruelle sombre à l’angoisse sourde que l’on peut ressentir envers un futur incertain, la peur prend différentes saveurs. Si cette émotion nous vient d’un mécanisme de survie de base (se protéger de dangers mortels), de nombreux troubles psychologiques liés à la peur dépassent cette fonction initiale : crises de panique, phobies sociales, troubles de stress post-traumatiques, pour ne citer qu’eux. Ces troubles ont tous en commun l’émotion qu’est la peur et des symptômes de réaction à une forme de menace.

Les avancées technologiques en neurosciences permettent aujourd’hui d’explorer comment le cerveau crée des états de peur et de défense. Des techniques d’identification et de manipulation de zones spécifiques du cerveau d’organismes vivants ont permis la découverte de nouvelles zones du cerveau impliquées dans les processus cognitifs liés à la peur, ainsi que l’identification de mécanismes à l’échelle des neurones qui régissent notre « mémoire de la peur », c’est-à-dire le fait de se souvenir d’événements liés à la peur qui se sont produits dans le passé.

Comment définir la peur scientifiquement ?

Face à une menace, notre cerveau promeut des mécanismes de défense pour tenter d’atténuer les conséquences de la menace et améliorer les chances de survie. Le résultat est à la fois cognitif et comportemental : c’est cet ensemble que nous percevons consciemment comme de la peur.

Lorsque nous sommes confrontés à une situation dangereuse, comme les animaux, nous avons trois options : nous battre, fuir ou rester immobile (pour passer inaperçus). D’un point de vue évolutif, ces trois réponses ont des implications différentes. Par exemple, de nombreux prédateurs détectent leurs proies en les voyant bouger – pour les espèces qui constituent leurs proies, il est logique de se figer. On observe souvent cette réaction chez des rongeurs par exemple. En fait, une grande partie de nos connaissances scientifiques sur la peur et le cerveau provient d’expériences comportementales sur des animaux.

Ivan Petrovitch Pavlov (1849-1936) a notamment travaillé sur la salivation réflexe des chiens, et se vit décerner le prix Nobel de physiologie/médecine en 1904 pour ces travaux sur le conditionnement. Deschiens

Historiquement, de nombreuses recherches visant à comprendre les mécanismes cérébraux de la peur ont été réalisées à l’aide d’une procédure appelée « conditionnement de la peur », ou « conditionnement de Pavlov ». Comme on va le voir, ces expériences de conditionnement permettent bien d’explorer certains mécanismes en jeu pour la peur. Cependant, il est primordial de comprendre qu’il existe une distinction entre les différentes composantes de la peur, et comment ceux-ci peuvent être étudiés.

En effet, dans le paradigme de Pavlov, un stimulus neutre (un son par exemple) et un stimulus aversif (comme un choc électrique) sont répétés. Au fil du temps, ces stimuli neutre et aversif se voient associés, à tel point que le simple son peut déclencher une réponse comportementale de peur, même en l’absence de choc électrique.

Ce type de procédure de conditionnement a souvent été utilisé sur des rongeurs, qui se figent alors en réponse au son. Les chercheurs utilisent les caractéristiques de cette immobilisation, comme sa durée et le retard par rapport au son, pour quantifier la réponse comportementale provoquée par le son.

Ce que ce conditionnement nous permet d’étudier est différent du sentiment conscient de peur : lorsque le son se produit, il active dans le cerveau une association apprise entre son et douleur et conduit à l’expression de réponses défensives typiques de l’espèce pour faire face au danger. En d’autres termes, lorsque les chercheurs étudient le conditionnement de la peur chez les animaux, ils évaluent en réalité les réponses défensives suscitées par une menace, plutôt que le sentiment de peur. Cette composante de la réponse défensive est un processus cognitif du domaine des émotions et, comme c’est le cas avec d’autres émotions, sa compréhension se fait principalement avec des études chez l’humain.

La peur elle-même peut être définie comme une « expérience émotionnelle consciente », ou en d’autres termes, la conscience que l’on est, soi-même, en danger. De plus, bien que la peur puisse être considérée comme découlant d’une réponse à un stimulus externe, l’anxiété est un phénomène plus durable qui se produit en réponse à des menaces plus vagues et moins imminentes.

Les bases neurobiologiques de la peur

Différents circuits cérébraux sont impliqués dans les réponses de peur, chacun pour différentes composantes.

Différentes parties du cerveau impliquées dans le sentiment de peur. Ana Pinto/Wikipedia, CC BY-SA

L’amygdale joue un rôle prépondérant dans la perception des menaces : elle reçoit une entrée sensorielle du thalamus et d’autres régions sensorielles, ce qui lui permet d’identifier rapidement les menaces potentielles. Une fois qu’une menace est détectée, l’amygdale active le système nerveux sympathique, ce qui déclenche la libération d’adrénaline et d’autres hormones du stress. Cela entraîne une série de réponses physiologiques, telles qu’une augmentation du rythme cardiaque, une respiration rapide et des sueurs, qui aident à préparer le corps à une action immédiate.

À leur tour, ces réponses physiologiques contribuent également à nos sentiments conscients de peur.

Les détails de la rencontre avec la menace sont encodés et stockés dans l’hippocampe, une région du cerveau impliquée dans la formation et la récupération des souvenirs. Ainsi, lorsque nous rencontrons une situation similaire après coup, l’hippocampe récupère le souvenir stocké et nous aide à reconnaître la menace.

Le cortex préfrontal, impliqué dans la prise de décision, la planification et la résolution de problèmes, est responsable de la régulation et du contrôle des réponses émotionnelles et comportementales. Dans les situations où la menace n’est pas immédiate ou dangereuse, le cortex préfrontal peut annuler la réponse de peur initiée par l’amygdale, nous permettant ainsi de rester calmes et rationnels.

Le conditionnement de la peur a également été étudié chez les humains, notamment des humains ayant subi des lésions accidentelles du cerveau. Par exemple, des patients ayant des lésions de l’hippocampe ne se souviennent pas d’avoir été conditionnés, mais expriment des réponses défensives. En effet, le souvenir d’avoir été conditionné est une forme de mémoire explicite, qui nécessite l’intervention de l’hippocampe. Par contre, l’apprentissage de la réponse défensive est une forme de mémoire implicite, qui repose sur l’action conjointe de plusieurs régions du cerveau.

En revanche, des lésions de l’amygdale perturbent la capacité à acquérir une réponse défensive, mais n’affectent pas la mémoire consciente d’avoir été conditionné pour le faire.

Pouvons-nous manipuler la peur ?

Ainsi, avant les années 2000, les études exploitaient la présence de lésions pour comprendre quelles régions sont impliquées dans la réponse de peur, et comment. Mais en lésant des régions cérébrales entières, les chercheurs ne pouvaient pas étudier les fonctions des différents types de neurones présents dans ces régions cérébrales, ce qui empêchait une compréhension à l’échelle des circuits cérébraux.

De nos jours, différentes techniques permettent aux chercheurs d’activer ou désactiver précisément des populations spécifiques de neurones en peu de temps, en utilisant des techniques telles que la « chémogénétique ». Avec cette technique, on utilise des protéines spécialement conçues, localisées à l’intérieur des neurones du cerveau des animaux de recherche. Lorsqu’un composé chimique spécifique est administré, il peut activer ou désactiver spécifiquement les neurones exprimant la protéine spécialement conçue – qui serait dans notre cas liés à une réaction de peur, par exemple.

Ainsi, la façon dont nous régulons nos souvenirs de peur est un aspect important de la réponse à la peur, sur lequel les chercheurs se sont concentrés, car l’extinction de ces souvenirs de peur est cruciale pour récupérer de troubles anxieux ou traumatiques. Également connue sous le nom d’« extinction de la peur », cette forme d’apprentissage (ou de désapprentissage) repose principalement sur le cortex préfrontal, qui contrôle les réponses émotionnelles et comportementales.

Le « noyau fastigial » est visible en vert sur l’image de microscopie du cerveau du souris. Il fait partie du cervelet, la région bleue environnante. La barre d’échelle représente 0,5 millimètre.. JL Frontera et collaborateurs, Nat. Comm., 2023, CC BY

Dans une étude récente, notre équipe à l’École Normale Supérieure de Paris a identifié une nouvelle région cérébrale reliée au cortex préfrontal, et montré que cette connexion est impliquée dans l’extinction de la peur. Il s’agit du « noyau fastigial », une partie du cervelet. Ce dernier s’appelle ainsi car il possède grand nombre de neurones (« petit cerveau » en latin), et est une région récente d’intérêt dans les recherches sur la peur.

Les chercheurs dans notre équipe ont entraîné des souris dans une tâche de conditionnement de peur de type pavlovien. Normalement, après un certain temps sans la présence du choc électrique, les souris arrêtent de s’immobiliser quand elles entendent le son. Ceci indique l’extinction de l’association entre le stimulus sonore et le choc électrique, c’est-à-dire que la mémoire de peur s’estompe. Mais de façon intéressante, lorsque les chercheurs ont inhibé les neurones du cortex préfrontal qui communiquent avec le noyau fastigial en utilisant la chémogénétique, ces souris ont continué à s’immobiliser – plus longtemps que les souris normales.

Cela suggère que les souris manipulées n’ont pas pu éteindre correctement leurs souvenirs de peur, ce qui souligne l’importance de cette communication entre cortex préfrontal et noyau fastigial dans la régulation de l’extinction de la mémoire de peur.

Ce n’est qu’une des nombreuses études récentes qui tirent parti des nouvelles technologies disponibles en neurosciences pour explorer la peur et le cerveau. En fait, assembler les pièces du puzzle des circuits cérébraux sous-jacents à l’acquisition et à l’expression des comportements défensifs est crucial pour avoir une vision globale de la complexité de ces processus. Cela encouragera davantage de recherches sur de nouvelles approches thérapeutiques pour le traitement des troubles liés à la peur chez les humains.

Ana Margarida Pinto, Doctorante, École normale supérieure (ENS) – PSL

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Parler du vin, est-ce ce qui lui donne du goût ? Pexels, CC BY-SA

Peut-on vraiment décrire le goût du vin ?

Parler du vin, est-ce ce qui lui donne du goût ? Pexels, CC BY-SA
Jean Szlamowicz, Université de Bourgogne – UBFC

On peut difficilement boire du vin sans en parler. Certains en font même leur métier : sommeliers et cavistes, critiques et œnologues ne pourraient exercer sans l’horizon de langage qui est celui de leurs compétences de dégustateurs. Sentir le vin tapissant les papilles et conduits olfactifs paraît un acte physiologique. Mais parler du vin est une activité sociale. Comment fait-on pour passer de la perception au discours ? Et quel rôle joue le langage dans la perception elle-même ?

La perception est une donnée qui paraît « naturelle », c’est-à-dire inscrite dans la sensation physique, mais elle s’articule à des interactions sociales. Le discours du vin est donc nécessairement multiple et s’appuie sur des intentions énonciatives. Dire « ce jus grenat s’étire sur une trame intense et concentrée » ou bien « il est costaud, ton rouquin dis-donc » ne correspond pas au même genre de discours mais cela peut décrire exactement le même vin et la même propriété gustative. Entre les deux énoncés, c’est l’intention de sens, le registre et la textualité même qui diffèrent, pas le vin…

En réalité, le goût du vin dépend peut-être moins de ses propriétés organoleptiques que des contextes discursifs qui lui donnent sens. Selon le point de vue – chimiste ou neurologue, critique gastronomique ou simple buveur – on n’a tout simplement pas les mêmes choses à dire du vin. Or, la particularité du domaine du vin est qu’il a construit dans la langue un vocabulaire particulier, entre technique et poésie, alimentation et esthétique, et que sa transmission relève d’une dimension culturelle qui dépasse la sensorialité individuelle.

Nommer les couleurs du vin

Il en va ainsi de la dimension visuelle du vin, qui s’organise sur le fond lexical de la langue. En effet, le vin « blanc » n’est pas de la couleur du lait et le vin « rouge » ne ressemble pas à une Ferrari. C’est que la tripartition rouge-blanc-rosé ne relève pas de la colorimétrie mais de la constitution culturelle de ces couleurs comme catégories définissant des types de vin, c’est-à-dire des noms de produits synthétisant des caractéristiques comme les techniques de vinification, les cépages, l’origine, l’association gastronomique, etc. Ce sont donc bien des propriétés sémantiques (saillance visuelle pour rouge, transparence pour blanc) qui sont utilisées pour parler des couleurs du vin et non pas les capacités perceptives de l’œil : les mots ne sont pas les choses…

À côté de cette catégorisation générique, on aura recours dans la dégustation à un sous-système discursif pour apprécier non plus la couleur mais la robe. Là encore, on parlera d’une robe rubis ou vieil or, jaune paille ou tuilé, utilisant des catégories qui sont des qualificatifs normalisés – et généralement flatteurs… Il est d’ailleurs notable que la couleur bordeaux provienne d’une telle valorisation des noms de couleur : dans la langue, bordeaux a remplacé pourpre ou amarante par analogie avec le vin, au XIXe siècle, notamment dans le cadre du développement des couleurs industrielles et de leurs appellations commerciales (de la même manière que burgundy en anglais).

Qualifier le vin : minéralité, concentration…

Décrire les sensations n’est pas les ressentir : il n’y a pas coïncidence morphologique possible entre « une » sensation et l’expression verbale. Un certain positivisme rêve parfois de faire correspondre une molécule à un mot, il ne saurait y avoir superposition terme à terme des molécules, des capteurs olfactifs et des mots qui sont trois ordres de phénomènes hétérogènes. Il faut donc, pour qualifier une sensation, recourir aux propriétés de la langue.

On parle parfois de minéralité sans qu’il y ait consensus sur ce que cela décrit. Sensation d’absence de fruité et de sucré ? Arômes de type « pierre à fusil » ? Acidité ? Fraîcheur ? Malgré les connotations du mot, il ne peut s’agir de « minéraux » à proprement parler dont l’existence est inférieure à nos seuils de perception. La minéralité fait bien partie des mots du vin, mais c’est par le biais de son évocation de propriétés naturelles sollicitant des motifs sémantiques valorisants et par association avec des représentations culturelles et non parce qu’elle décrirait un phénomène observable.

De même, on parle souvent de concentration, sans qu’on sache de quelle substance on noterait ainsi la caractéristique : « vin concentré », « concentration du fruit », « concentration des arômes », « concentration des tanins »… Le mot indique une forme de puissance et d’abondance mais, malgré une nuance renvoyant potentiellement à la chimie, il ne possède pas un statut technique. En réalité, il existe une forme de substituabilité des nombreux termes comme corsé, fort, intense, charpenté tandis que leurs équivalents familiers (baraqué, couillu, costaud…) se trouvent dans les conversations mais pas dans les notes de dégustation ou les textes techniques. C’est donc le registre et non une valeur terminologique particulière qui distribue certaines préférences sémantiques.

De la même manière, les qualificatifs qui permettent de parler du vin sont-ils sollicités en utilisant leur potentiel de fonctionnement discursif sans figer une véritable univocité terminologique. Un mot comme léger montre ainsi la diversité de ses profilages argumentatifs : cela peut être une qualité si on oppose un vin léger à un vin lourd mais aussi un défaut si on compare un vin léger à un vin intense, mais il peut aussi permettre de construire une catégorie esthétique non hiérarchisée où l’on distinguerait les vins légers et les vins puissants. Ces trois saisies différentes du même qualificatif montrent l’absence de stabilisation véritablement technique, tout en montrant que la signification du mot dépend de ses collocations, c’est-à-dire des associations établies avec les autres mots, dans la langue ou dans le discours.

Le vin et les langues

La langue est une pratique culturelle, parmi d’autres : elle est l’indice et l’instrument de manières d’aborder le vin et on peut voir dans le lexique comment se configurent des façons de boire… D’une certaine façon, le mot wine ne peut être porteur des mêmes connotations que vin ou vino : l’exotisme du vin comme pratique gastronomique correspondant, grosso modo, au sud de l’Europe implique un décalage culturel pour le monde anglophone, le vin s’envisageant comme produit gastronomique raffiné nécessitant une sorte d’apprivoisement.

Traduire le vin constitue donc un défi particulier sur le plan de la médiation interculturelle puisqu’il faut envisager comment « importer » un vocabulaire propre à une histoire et à des pratiques. On constate par exemple une certaine disparité dans la façon de parler des tanins en français et en anglais.

La stabilisation d’un vocabulaire à la prétention technique prescrivant l’usage de chewy(« qui se mâche »), silky (« qui rappelle la soie »), powdery (« qui a une consistance de poudre »), chalky (« qui évoque la craie »), velvety (« qui rappelle le velours »), etc. pour établir une échelle de granularité s’oppose à une description moins normée en français. Cette échelle descriptive est illusoire car elle repose sur les connotations des mots, sans qu’il n’y ait aucune nécessité perceptive à les organiser en référence au textile – pourquoi privilégier la soie au satin ou au polyester si ce sont des métaphores de la perception buccales ? L’illusion de scientificité de ce vocabulaire créé même des ambiguïtés puisque crayeux est utilisé en français pour décrire des sols alors que chalky sert à décrire une granularité des tanins, voire une dimension aromatique renvoyant à la minéralité…

L’organisation du vocabulaire du vin autour de notions comme sec, moelleux et liquoreux pour décrire la sensation du sucré témoigne également d’une spécificité du français, l’anglais se contentant de noter qu’un vin est plus ou moins sweet. On remarque d’ailleurs que dry et sweet sont des notions qui s’appliquent aussi aux vins rouges, débordant ainsi sur la description de l’intensité du fruit. L’évolution lexicale permettant à sec de décrire l’absence de sucre, à moelleux de décrire une sucrosité modérée et à liquoreux une vinification générant une concentration des sucres est l’illustration de processus sémantico-discursifs qui relèvent de la création culturelle et non de la perception sensorielle.

Perception et langage

En effet, la stabilisation du vocabulaire du vin dont sec-moelleux-liquoreux est un exemple montre comment le goût du vin relève avant tout d’un discours. Car cette lexicalisation se constitue comme fait culturel, lequel définit alors une façon de parler du vin. Comme pour tout domaine de constitution du sens, l’apprentissage social se confond avec la manipulation des signes linguistiques.

Parler du vin revient ainsi à configurer des catégories, des prédicats et des degrés, à manier des images, des notions et des connotations qui existent dans la pratique de la langue et non dans la réalité objectale du vin lui-même. Quand on lit des descriptions de vin évoquant le chant des cigales, une énergie raffinée ou une élégance solaire, ces descripteurs ne sont pas de nature organoleptique.

De fait, il n’existe pas d’expérience du vin qui se ferait hors d’un contexte social, d’une situation énonciative et de références culturelles. C’est même justement dans cet entour langagier que se dégage un horizon sémiotico-culturel dont la puissance évocative aménage le plaisir et le sens – si on n’en parlait pas, le vin n’aurait pas plus de charme qu’un haricot vert !

Jean Szlamowicz, Professeur des universités, linguiste, traducteur, Université de Bourgogne – UBFC

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Et si protéger nos protéines permettait de bien vieillir ? Ravi Patel/Unsplash, CC BY-SA

Protéger nos protéines pour prévenir le vieillissement : une piste prometteuse ?

Et si protéger nos protéines permettait de bien vieillir ? Ravi Patel/Unsplash, CC BY-SA
Miroslav Radman, Inserm

C’est notamment grâce à une petite bactérie ultra-résistante capable de « revenir à la vie » après des attaques extrêmement nocives, que les théories existantes sur la chimie du vieillissement sont en train d’être rebattues.

Il s’agit de Deinococcus radiodurans, une des bactéries les plus résistantes connues à ce jour, qui vit dans des environnements arides comme le sable du désert. Elle survit dans les conserves de viande après le traitement de « choc » que constitue une stérilisation par rayonnement gamma. Elle peut également survivre à une dose d’irradiation 5000 fois plus importante que la dose mortelle pour les humains.

Deinococcus radiodurans est une bactérie extrêmophile et l’un des organismes les plus résistants aux radiations que l’on connaisse. Ici elle est vue par microscopie électronique à transmission. Michael Daly, Uniformed Services University, US Department of Energy

Les études ont montré que cette bactérie survit même si son ADN est endommagé et brisé en plusieurs centaines de fragments à cause d’un stress violent. En seulement quelques heures, elle reconstitue entièrement son patrimoine génétique et revient à la vie. Son ADN n’est pas plus résistant, il est simplement réparé immédiatement par des protéines indestructibles face à cette radiation extrême.

Ainsi, le secret de la robustesse de cette bactérie extrêmophile dépend de la robustesse de son « protéome » – l’ensemble de ces protéines – et notamment de ses protéines de réparation de l’ADN.

Ceci suggère un nouveau paradigme : pour augmenter la longévité, et notamment celle des humains, c’est le protéome – plus que l’ADN – qu’il nous faut protéger.

En effet, la survie de l’organisme dépend de l’activité de ses protéines. Si on agit contre l’altération du protéome, qui est à l’origine du vieillissement, on intervient simultanément sur l’ensemble de ses conséquences : par exemple la survie et le fonctionnement cellulaire ; et on évite les mutations induites par les radiations.

Les clefs du vieillissement

Le vieillissement se caractérise par l’accumulation d’évènements qui détériorent les fonctions de nos organes, et par une augmentation exponentielle des risques de décès et des maladies au fil du temps.

De nombreux modèles ont été proposés pour expliquer la base moléculaire du vieillissement, tels que la théorie de la sénescence cellulaire, la diminution de la capacité de réparation de l’ADN, le raccourcissement des télomères, le dysfonctionnement mitochondrial et le stress oxydant ou encore l’inflammation chronique.

Ces différents modèles s’attachent tous à tenter de comprendre les conséquences du vieillissement, et non les causes. Le dogme central « ADN -> ARN -> protéines », qui désigne les relations entre l’ADN, l’ARN et les protéines et qui renvoie à l’idée que cette relation est unidirectionnelle (c’est-à-dire que de l’ADN vers les protéines en passant par l’ARN), mérite aujourd’hui d’être reconsidéré.

Triple hélice de collagène, une protéine structurelle qui contribue à la résistance de la peau. Naos, Fourni par l'auteur

En effet, si plutôt que de s’intéresser d’abord à notre ADN et de rechercher à le protéger pour freiner notre vieillissement, nous protégions notre protéome ?

Qu’est-ce que le protéome ?

Le terme « protéome » désigne l’ensemble des protéines présentes dans une cellule ou dans un organisme. Les protéines – du grec protos qui signifie « premier » – représentent le second principal constituant du corps humain, après l’eau, soit environ 20 % de sa masse.

Le terme « protéome » a été construit par analogie avec le génome : le protéome étant aux protéines ce que le génome est aux gènes, c’est-à-dire l’ensemble des gènes/protéines d’un individu – cet ensemble protéique variant en fonction de l’activité des gènes.

En effet, le protéome est une entité dynamique, qui s’adapte en permanence aux besoins de la cellule face à son environnement. Les protéines sont des molécules essentielles à la construction et au fonctionnement de tous les organismes vivants. Environ 650 000 réseaux interactifs protéine-protéine ont été identifiés dans divers organismes, dont environ 250 000 chez l’humain.

Les protéines exécutent une grande variété de fonctions :

  • Un rôle structurel : de nombreuses protéines assurent la structure de chaque cellule, et le maintien et la cohésion de nos tissus. Par exemple, l’actine et la tubuline participent à l’architecture de la cellule. La kératine à celle de notre épiderme, de nos cheveux et de nos ongles. Le collagène est une protéine qui joue un rôle important dans la structure des os, des cartilages et de la peau.

  • Un rôle fonctionnel : enzymatique (par exemple, les protéases participent au nettoyage des protéines dysfonctionnelles et à la desquamation), hormonal (par exemple, l’insuline régule la glycémie), de transport (par exemple, les aquaporines transportent l’eau dans les différentes couches de la peau) ou de défense (par exemple, les immunoglobulines participent à la réponse immunitaire). Ainsi, l’ensemble des fonctions vitales est assuré par l’activité des protéines.

La « carbonylation », première cause d’altération irréparable de notre protéome

L’équilibre entre la synthèse de nouvelles protéines et leur dégradation s’appelle la protéostasie. Celle-ci est nécessaire au fonctionnement de notre organisme.

Mais cet état d’équilibre est sensible. Il est même constamment menacé, car la synthèse et la dégradation des protéines dépendent… de protéines. Avec le temps et les agressions extérieures, le protéome est soumis à diverses altérations, dont la plus redoutable est la « carbonylation », dommage irréversible lié à l’oxydation des protéines.

Les protéines carbonylées sont modifiées de façon permanente. Elles ne peuvent plus assurer correctement leurs fonctions biologiques ; et acquièrent même parfois des fonctions toxiques sous forme de petits agrégats.

Lorsqu’elles sont endommagées de façon irréparable, les protéines doivent être recyclées ou éliminées. Avec l’âge, cette élimination se fait plus difficilement, ce qui peut causer leur accumulation sous forme d’agrégats toxiques qui entravent la physiologie cellulaire et accélèrent le vieillissement. Au-delà d’un certain seuil, ces agrégats sont néfastes pour l’organisme : un état de protéotoxicité s’installe alors.

La perte de la protéostasie, c’est-à-dire l’équilibre entre la synthèse de nouvelles protéines et leur dégradation, due à l’accumulation d’agrégats protéiques, constitue la cause centrale dans le vieillissement et les maladies dégénératives. Ces agrégats de protéines carbonylées se retrouvent dans la plupart des maladies liées à l’âge, ainsi que dans les principaux signes de vieillissement de la peau.

Ainsi, alors que notre vision du vieillissement était jusqu’à présent centrée sur le génome, les recherches récentes sur le protéome introduisent l’importance de l’accumulation des protéines endommagées comme un facteur-clef du processus de vieillissement dans son ensemble.

Les molécules chaperonnes antioxydantes, pour agir sur les causes du vieillissement

Pour se replier correctement, la plupart des protéines ont besoin de l’aide de protéines spécialisées appelées « chaperonnes ». Les molécules chaperonnes sont de petites protéines qui aident et assistent au repliement normal des protéines après leur synthèse par les ribosomes, ou à leur bon repliement après un stress, tel un stress thermique.

Illustration de l’extraction de bactériorubérines à partir de la bactérie Arthrobacter agilis – les bactériorubérines sont des pigments biologiques antioxydants et à effet chaperon, protégeant le protéome. NAOS. Naos, Fourni par l'auteur

Le terme de molécule chaperonne – d’origine française bien que proposé par John Ellis et Sean Hemmingsen – a été adopté car leur rôle est d’empêcher les interactions indésirables et de rompre les liaisons incorrectes qui peuvent se former, à l’instar d’un chaperon humain. Bref, les chaperonnes (protéiques ou chimiques) sont les médecins des protéines mal-formées !

Revenons à la bactérie Deinococcus radiodurans, chez elle, les chaperonnes jouent un rôle clé dans la protection des protéines contre la carbonylation, en évitant que leurs acides aminés ne soient exposés aux radicaux libres ou ROS. Ainsi, elles réduisent leur susceptibilité aux altérations et limitent la formation d’agrégats. En parallèle, leur efficacité antioxydante neutralise les causes de la carbonylation.

Ces protéines chaperonnes antioxydantes constituent donc un moyen efficace de protéger le protéome, en apportant à la fois une protection physique de la structure fonctionnelle des protéines, et un bouclier antioxydant lié aux protéines qui protège contre les dommages tels que la carbonylation.

Chez Deinococcus radiodurans, grâce à une protection efficace de son protéome contre les dommages oxydatifs par les molécules chaperonnes chimiques, plutôt que de son génome, son protéome intact est alors capable de réparer les dommages causés à son génome et in fine de lui permettre de ressusciter en quelques heures.

Au-delà du génome, la protection de notre protéome, c’est-à-dire de nos protéines, peut être considérée aujourd’hui comme la clé de notre santé et de notre longévité. Toute autre théorie du vieillissement est compatible avec cette théorie, et se laisse interpréter par celle-ci.

Miroslav Radman, Professeur, Inserm

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Galilée trouvait que Saturne ressemblait un peu à la tête d’un ours en peluche avec deux grandes oreilles. Il pensait qu’elle était peut-être composée de trois planètes. Shutterstock, CC BY

Pourquoi Saturne a-t-elle des anneaux ?

Galilée trouvait que Saturne ressemblait un peu à la tête d’un ours en peluche avec deux grandes oreilles. Il pensait qu’elle était peut-être composée de trois planètes. Shutterstock, CC BY
Lucyna Kedziora-Chudczer, Swinburne University of Technology

La plupart des scientifiques pensent que Saturne n’a pas toujours eu ses anneaux, mais qu’il y a des millions d’années, une lune lui tournait autour.

Cette lune a fini par s’approcher très près de la planète, tout en tournant de plus en plus vite. Cette accélération était tellement violente qu’elle a fait exploser la lune. Elle s’est brisée en morceaux qui se sont ensuite répandus autour de la planète en prenant la forme d’un disque. Ces fragments sont majoritairement de la glace et de la roche.

Les morceaux ont continué à se fracasser les uns contre les autres, ce qui a produit beaucoup de poussière et de neige. Certains morceaux sont tombés sur Saturne ou ont flotté dans l’espace. C’est encore le cas aujourd’hui et, dans un avenir lointain, les anneaux devraient disparaître complètement.

Des morceaux de glace et de roche se sont répandus autour de la planète pour former un disque ». Shutterstock

À la découverte des anneaux de Saturne

On n’a pas toujours su que Saturne avait des anneaux.

Voici une photo en gros plan des anneaux de Saturne. JPL/NASA

Il y a quelques centaines d’années, un astronome nommé Galilée a observé le ciel à travers l’un des premiers télescopes. Lorsqu’il l’a utilisé pour observer Saturne, il a trouvé que la planète ressemblait un peu à la tête d’un ours en peluche avec deux grandes oreilles. Il a pensé qu’elle était peut-être composée de trois planètes.

Des années plus tard, les astronomes ont utilisé de meilleurs télescopes et se sont rendu compte que Saturne était entourée de ce qui ressemblait à un grand disque plat.

Au départ, les astronomes pensaient que le disque touchait Saturne. Un astronome nommé Christiaan Huygens pensait que le disque autour de Saturne était un objet plein, comme une bague autour d’un doigt. Un autre astronome, Giovanni Cassini, a été le premier à remarquer que l’anneau n’était pas plein, et qu’il y a avait du vide entre les morceaux.

Aujourd’hui, nous savons que les anneaux sont constitués de poussière de lune et de roches. Et comme Saturne est très éloignée du Soleil, c’est une planète très froide. Cela signifie que les roches des anneaux de Saturne sont très glacées. Certaines sont même entièrement constituées de glace, comme des boules de neige. Les anneaux de Saturne sont très brillants, car la glace reflète fortement la lumière du soleil.

En envoyant des sondes spatiales vers d’autres planètes et en prenant des photos de très près, on a découvert que Jupiter, Uranus et Neptune avaient également des anneaux. Mais ces anneaux sont plus fins et difficiles à voir depuis la Terre. On a également réalisé que ces planètes avaient de nombreuses lunes, certaines plus petites et d’autres plus grandes que la Lune de la Terre.


Diane Rottner, CC BY-NC-ND

Si toi aussi tu as une question, demande à tes parents d’envoyer un mail à : tcjunior/theconversation.fr. Nous trouverons un·e scientifique pour te répondre. En attendant, tu peux lire tous les articles « The Conversation Junior ».

Lucyna Kedziora-Chudczer, Program Manager / Adjunct Research Fellow, Swinburne University of Technology

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.