Par le

Comment Lego a envahi le marché des jouets à construire pour adultes
The Conversation

Comment Lego a envahi le marché des jouets à construire pour adultes

Pour construire ce lego de 9090 pièces, il vous faudra débourser près de 700 €.
Julian Alvarez, Université de Lille

En 2023, Lego a déclaré 8,8 Milliards d’euros de chiffre d’affaires. Si l’on considère que le marché international du jouet a pesé 168 milliards d’euros en 2023, cela représentait environ 5,25 % de parts de marché. Pour partie, ce succès s’explique par la diversification que la marque danoise a su opérer en produisant des jeux vidéo (Lego Star Wars, Lego Batman…), des films (The Lego Movie…), des émissions télévisées (Lego Masters…), etc.

Si des parents peuvent acheter des Lego à leurs enfants par nostalgie, certains adultes en font une consommation personnelle. Ainsi, en 2021, les adultes étaient 20 % à s’offrir les petites briques en plastique. Pour accompagner cette demande, la marque propose désormais des boîtes à destination des publics 18+, avec la collection « Lego Architecture » proposant de reproduire des monuments comme le Colisée de Rome, Notre-Dame de Paris, « Icons » avec la tour Eiffel, le Titanic, la fusée Artémis, le Concorde, ou encore des objets vintage comme un poste de radio des années 50, une borne d’arcade Pac-Man.

Un lien de parenté avec les puzzles ?

Est-ce un phénomène si surprenant ? Assembler des briques en plastique pour reproduire un modèle, cela revient finalement à faire un puzzle. Quand on sait que les boîtes de puzzles classiques comptant plus de 1 000 pièces s’adressent généralement aux adultes, pourquoi en serait-il autrement pour du Lego ? Cette parenté avec les puzzles se retrouve à plusieurs niveaux comme l’affichage du nombre de pièces sur chaque boîte de Lego destinés aux 18+. Par exemple, la boîte « World Map » comporte 11 695 pièces. Issu de la série « Lego Art », c’est pour l’instant l’article qui compte le plus de briques. « World Map » propose aussi de reproduire une carte du monde en mode plan. La reproduction terminée, il est également possible de l’encadrer et de l’accrocher au mur comme peuvent le faire certains « puzzleurs ».

Mais avec Lego, des notices explicatives sont fournies pour suivre pas à pas les différentes étapes. Or, le puzzle induit de se perdre dans les méandres d’une image, de ses différentes nuances de couleurs, de positionner des pièces en se fiant à leurs différentes formes, pour tâcher petit à petit de reproduire le modèle présenté. Avec « World Map », il s’agit sans doute d’un moyen de se détendre via des tâches répétitives. En effet, cette référence propose via un QR code d’accéder à une bande-son composée de témoignages de voyageurs à écouter tout en réalisant la carte du monde.

Le phénomène des licences

Avec d’autres modèles, comme la tour Eiffel ou le Colisée de Rome par exemple, on bascule dans des puzzles en 3 dimensions. Le défi se corse : il faut faire appel aux rotations mentales pour emboîter les briques aux bons endroits. La perception du jeu étant finalement une affaire subjective. Une fois le modèle terminé, il y a deux possibilités la démonter et remettre toutes les pièces dans la boîte ou la conserver intacte et pourquoi pas l’exposer. Un autre levier entre alors en jeu : la collection.

Lego propose bon nombre de licences comme notamment celle de Star Wars, la plus ancienne. Lancée en 1999, c’est aussi la plus prolifique. Elle compte à ce jour près de 950 références et plus de 1400 figurines. Cette diversité conduit de nombreux adultes passionnés à exposer de tels objets chez eux ou sur les réseaux sociaux. Parmi les nombreuses associations francophones fédérant les joueurs de Lego, certaines, sont spécialisées dans la licence Star Wars. Cela permet au millier de membres de partager leurs collections. En parallèle, la fidélisation de Lego va jusqu’à offrir aux clients VIP des figurines ou autres produits exclusifs pour assoir cette dynamique de collection. Le tout est appuyé par des influenceurs qui partagent l’actualité autour de Lego et ses nouvelles références.

Notons que certains acquéreurs conservent précieusement les différentes boîtes de la licence Star Wars sans jamais les ouvrir. Il s’agit ainsi de spéculer sur la montée des prix lorsque certaines références deviennent introuvables à la vente. Des études montrent que les taux de rendement peuvent atteindre les 11 %. Ce qui est plus lucratif que miser sur le cours de l’or. Lego n’hésite pas à jouer sur ce registre avec sa gamme « ultimate collector series » pour signifier la rareté du produit. Ce qui permet à la société danoise de justifier des tarifs élevés pour de telles références.

Si l’on met de côté les aspects spéculatifs, associer les licences Star Wars et Lego permet de convoquer deux madeleines de Proust simultanément. Ce qui se traduit par un renforcement de la dynamique d’achat pour les deux marques. Aux dioramas qui proposent de reconstruire des scènes cultes issus des différents films se rajoutent les jeux vidéo Lego Star Wars. Six titres réalisés entre 2005 et 2022 proposent de rejouer de manière interactive les différents épisodes du space opera hollywoodien. Les joueurs peuvent incarner différentes figurines Lego à l’effigie des personnages de la saga qui prennent place dans des décors et engins dont la grande majorité sont des références disponibles au catalogue. Les ventes cumulées de ces différents titres vidéoludiques totalisent un peu plus de 45 millions d’exemplaires à travers le monde. Parmi les joueurs, on compte à la fois des enfants et des adultes. Ainsi, on peut voir à travers de tels jeux vidéo une manière de prolonger chez les enfants l’activité de jouer aux Lego. Une telle transition est stratégique sur au moins deux points. D’abord, dès l’âge de 8 ans, un rapport de l’Ofcom indique que la consommation-écran et des jeux vidéo deviennent une activité prépondérante chez les enfants. Ce qui peut se traduire par délaisser les jouets traditionnels au profit des jeux numériques. En se déployant sur les jeux numériques, Lego permet ainsi d’accompagner les transitions ludiques des enfants.

Un autre aspect stratégique réside dans le fait de faire connaître la marque aux enfants. En effet, être exposé à une marque durant l’enfance, notamment avant l’âge de 16 ans, aurait de fortes chances de se traduire par une fidélisation à l’âge adulte. Dans un contexte où plusieurs pays, dont notamment le Danemark, règlementent voire interdisent la publicité à destination des enfants pour des raisons éthiques, le fabriquant doit trouver d’autres moyens de faire connaître ses produits et sa marque tout en restant dans un cadre légal. Sur ce plan, faire des parents des prescripteurs de la marque peut s’avérer un atout. C’est pourquoi le marketing de Lego valorise les activités familiales comme l’illustre par exemple l’étude Lego Play Well qui met en avant les atouts de jouer avec les briques, notamment sur le plan des apprentissages. L’emploi de licences comme Star Wars, mais aussi Harry Potter, Marvel Super Heroes, Disney, Jurassic World, Indiana Jones, etc., jouent le rôle de catalyseurs pour favoriser l’entrée des parents via la fibre nostalgique. Ils peuvent partager à leurs petits les souvenirs d’enfance en lien avec les jeux Lego et les plaisirs associés aux histoires que portent les différentes licences cinématographiques.

La dimension créative

S’il est possible de créer librement à partir de n’importe quel set de briques, la société danoise propose également la gamme « Lego Classic » pour appuyer la démarche. Ces packs mettent en avant des pièces variées et quelques illustrations de réalisations possibles en guise de sources d’inspiration. Des magasins Lego proposent également des lieux pour se poser et utiliser librement des briques en vrac. Enfants et adultes peuvent ainsi laisser libre cours à leur imagination en créant leurs propres modèles. Certains passionnés adhèrent à des associations, voire s’inscrivent à Lego Masters. Dans cette émission télévisée, il s’agit de créer des modèles inédits en binôme avec des directives et des thématiques, dans un temps donné : par exemple produire un engin volant qui fera la plus belle explosion colorée en s’écrasant au sol.

La créativité est un levier d’engagement puissant que l’on retrouve dans les activités de co-design en entreprise. L’idée étant d’inviter les collaborateurs à proposer des idées pour susciter de l’innovation ou encore solutionner des situations complexes (résolution de problèmes, développement stratégique…) en mettant en commun des approches et des expériences issues de profils différents : c’est le « Design Thinking ».

Les briques Lego peuvent être utilisées dans ce registre. Ainsi, le programme Lego Serious Play propose depuis 2002 des méthodes Lego dans le cadre de séminaires impliquant du Team Building, des Hackathons voire des formations. Le fait d’utiliser les Lego au travail permet d’une certainement manière aux adultes de s’approprier de nouveau les briques en plastique au travers d’usages productifs.

En parallèle, Lego cherche à valoriser ses fans au regard de sa créativité. En effet, l’absence de reconnaissance pourrait être source de frustration. C’est sans doute pourquoi l’entreprise danoise propose un programme appelé « Lego Idea ». Il s’agit pour la communauté de proposer des idées de modèles à la société danoise. Si des propositions recueillent 10 000 soutiens, alors elles sont étudiées pour potentiellement en faire une référence commercialisée.

Un autre levier de création nous vient également du jeu vidéo. Minecraft compte parmi les titres vidéoludiques les plus vendus au monde avec plus de 300 millions d’exemplaires écoulés entre 2009 et 2023. À l’aide de blocs que le joueur doit se fabriquer, ce titre permet de construire plein d’éléments dans un environnement virtuel qui peut s’ouvrir à du multijoueur.

Minecraft a réussi à transposer le plaisir créatif éprouvé avec des constructions Lego dans le secteur du jeu vidéo, et les deux marques se ont associées en 2012 avec les premières références Lego Minecraft, une licence qui continue à se développer, issue de la communauté Lego Idea.

Une stratégie payante

La relaxation, la collection, la nostalgie, la spéculation et la créativité sont des leviers d’engagement sur lesquels Lego s’appuie. L’entreprise danoise joue habilement sur le plan marketing pour continuer à étendre ses parts de marché en ciblant notamment la famille et les adultes.

L’idée étant de faire des adultes des prescripteurs de la marque. L’association de licences issues des industries cinématographiques et vidéoludiques visent à renforcer les échanges intergénérationnels. En parallèle, les adultes offrent l’avantage d’un pouvoir d’achat plus important que les enfants. Aspect économique que Lego a bien identifié au regard des tarifs plus élevés que présentent les références pour adultes. Actuellement, le marché des adultes devient sans doute l’un des principaux leviers de croissance économique pour Lego : David Beckham, qui se met en scène sur les réseaux sociaux en train de jouer aux Lego semble prouver cette hypothèse.

Julian Alvarez, Professeur Associé à l'université de Lille, Docteur en Sciences de l'information et de la communication, Université de Lille

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de freepik

The Conversation

Est-il vrai que l’on connaît mieux l’espace que les fonds marins ?

Océans ou espace, quels sont les abysses les plus insondables ? Luca Baggio/Unsplash, CC BY
Collot Julien, Université de Bretagne occidentale ; David Baratoux, Institut de recherche pour le développement (IRD); Pierre-Yves Le Meur, Institut de recherche pour le développement (IRD) et Sarah Samadi, Muséum national d’histoire naturelle (MNHN)

Chaque semaine, nos scientifiques répondent à vos questions.

N’hésitez pas à nous écrire pour poser la vôtre et nous trouverons la meilleure personne pour vous répondre.

Et bien sûr, les questions bêtes, ça n’existe pas !


Les grands fonds marins et l’espace apparaissent comme les dernières frontières de l’humanité. Ces objets lointains et difficiles d’accès fascinent, au-delà de leurs différences. Est-il vrai que l’on connaît mieux l’espace que les fonds marins ? Comment les explore-t-on, et en réponse à quelles motivations ? Ce que l’on sait ou ne sait pas dépend à la fois des moyens mis en œuvre (comment on regarde) et des questions que l’on se pose (ce que l’on regarde ou cherche). Ces interrogations renvoient à la vocation exploratoire de la science que sa bureaucratisation actuelle tend à faire oublier.

La Terre est couverte à 70 % d’océans avec une profondeur moyenne de 3 700 m. Regardez avec un masque depuis la surface, vous ne verrez le fond que s’il y a moins de 10 m d’eau, regardez le ciel, les photons qui vous parviennent ont pu traverser des millions d’années-lumière ! L’eau est la principale barrière à la connaissance des fonds marins : les ondes électromagnétiques (lumière, lasers, ondes hertziennes) y sont très vite absorbées, alors qu’elles se propagent sur des distances immenses dans l’espace.

On ne peut donc caractériser les océans que de manière indirecte depuis des navires, à l’aide de sondeurs acoustiques ou par le prélèvement d’échantillons obtenus à l’aide d’outils suspendus à un câble. Ponctuellement, on utilise des submersibles habités ou robotisés qui n’observent qu’à une dizaine de mètres autour d’eux au moyen de puissants projecteurs. En 2023, seuls 25 % des reliefs des fonds marins avaient été cartographiés par méthodes acoustiques.

Ce type de navire permettant les cartographies n’avance qu’à 5 km/h, il faudrait donc trois siècles pour couvrir les fonds marins intégralement à ce rythme. Dans les années 1990, une nouvelle méthode a permis d’estimer grossièrement la profondeur des océans à partir des petites variations de l’altitude de la surface de l’eau, mesurée par des satellites (l’altimétrie). Ce sont les cartes que nous consultons dans Google Earth.

Cartographie des reliefs des fonds marins – la bathymétrie. En 2023, environ 25 % des fonds marins étaient cartographiés à une résolution de 50m/pixel. En noir : zones non cartographiées. Programme international Gebco de cartographie des fonds marins qui vise à rassembler l’ensemble des données bathymétriques mondiales pour améliorer la connaissance des océans, Fourni par l'auteur

Pour satisfaire votre curiosité :


Partout où l’on cherche, on découvre des organismes originaux. L’exploration des grands fonds révèle par exemple des animaux bien vivants dont les plus proches parents sont des animaux fossiles – donc disparus – connus eux depuis longtemps dans les couches sédimentaires sur les continents ! On y a aussi découvert à la fin des années 70 qu’il n’y a pas que la photosynthèse qui est la source primaire de la matière vivante. Ainsi, au pied des cheminées hydrothermales profondes, qui émettent des fluides chauds et “toxiques”, des oasis de vie prolifèrent grâce à des bactéries chimiosynthétiques capables de produire de la matière organique sans lumière. Depuis, la chimiosynthèse a également été observée dans des milieux côtiers mais aussi terrestres et même dans l’atmosphère !

Images obtenues lors de la campagne Kanadeep2 à l’aide du robot Victor6000 à 2 768m de profondeur sur la ride des Loyauté (Sud-Ouest Pacifique) lors de la plongée n°741. La première image montre un rocher couvert d’animaux (coraux, éponges, ascidies, échinodermes, etc.). La seconde image montre les bras du robot utilisé pour échantillonner ces animaux. Kanadeep2, doi 10.17600/18000883, Fourni par l'auteur

La découverte de l’espace

Concernant l’espace, l’envoi de la sonde Soviétique Luna 1 en 1959 marque le début de l’exploration spatiale du Système solaire. 60 ans plus tard, les huit planètes du Système solaire ont toutes été visitées par une sonde spatiale, ainsi que les plus gros satellites des planètes géantes. Ces sondes ont produit des images des paysages extra-terrestres, inhabitables, mais incroyablement variés.

Dunes de sable observées par l’instrument HiRISE de la mission Mars Reconnaissance Orbiter (MRO). Résolution : 25 cm/pixel. A cette résolution, il est possible d’observer les petites rides sur les dunes, et même le déplacement des dunes sur quelques années seulement (largeur de l’image : 1 km). NASA/JPL-Caltech/UArizona, Fourni par l'auteur

L’exploration au moyen de caméras depuis l’espace s’est rapidement enrichie d’instruments permettant de cartographier la nature des matériaux (composition chimique, minéralogique, recherche de molécules organiques) tandis que l’exploration in-situ se développe (atterrisseur, puis véhicules capables de rouler, et tout récemment un petit hélicoptère), pour toujours plus de mobilité pour l’exploration. Il est possible de réaliser des cartes géologiques de toute planète rouge sans qu’aucun homme n’ait foulé son sol.

Nos connaissances du système solaire proviennent aussi de météorites, arrachées par des collisions (impacts) et qui finissent leur voyage interplanétaire à la surface de notre planète. Des missions spatiales sont aussi dédiées à la collecte d’échantillons. Ce fut le cas des missions Apollo sur la Lune, et plus récemment de la mission OSIRIS-REx qui a pu ramener sur Terre un échantillon de l’astéroïde Bennu. Bientôt, ce sera le tour de Mars.

Les sondes spatiales ont atteint des distances considérables. La sonde New Horizons, après avoir survolé Pluton, est allée aux confins du Système solaire (à plus de 6 milliards de km de la Terre) fournir des images d’un petit astéroïde (Arrokoth) en forme de bonhomme de neige qui nous raconte les premiers instants de la formation des planètes. Mais il reste beaucoup à explorer, à la recherche d’environnements peut-être habitables. Des milliers de corps dans le système solaire (astéroïdes, petits satellites des planètes géantes) sont uniquement connus à partir de la lumière qu’ils reflètent du Soleil. Les distances parcourues paraissent déjà immenses, mais aucune sonde spatiale construite par l’homme n’a vraiment quitté la zone d’influence du Soleil, même si Voyager 1 et 2 sont bel et bien en route pour le milieu interstellaire. Pour atteindre l’étoile la plus proche de nous, ce ne sont pas quelques milliards de kilomètres qu’il faut parcourir, mais 40 000 milliards ! Il ne nous est pour l’instant pas possible d’explorer directement l’espace au-delà du système solaire autrement que par la lumière que les objets qui peuplent l’univers nous renvoient.

Au plan cartographique, il est exact de dire que l’on connaît mieux la surface des astres du système solaire que les fonds marins. Les moyens alloués aux premiers sont plus importants (2 milliards d’euros sont allés à l’exploration spatiale en France en 2020, contre 0,4 milliards pour les fonds océaniques). Au-delà du Système solaire, les prouesses technologiques permettent de voir quelques détails à la “surface” des étoiles, et de révéler la nature rocheuse ou gazeuse des exoplanètes, mais nous sommes très loin d’avoir cartographier les centaines de milliards d’objets qui peuplent notre galaxie.

Il faut le réaffirmer ici, la science est largement affaire d’exploration et il est indispensable de cultiver cette dimension fondamentale. Cette exploration est intimement liée à la recherche des origines de la vie, même si d’autres enjeux, économiques ou géopolitiques, motivent aussi ces recherches. Les molécules organiques découvertes en dehors de notre planète ou les processus bio – et géologiques identifiés dans les environnements obscurs des fonds marins interrogent sur la capacité de la vie à se développer ailleurs et partout dans l’univers. L’exploration de l’espace et des fonds marins ne s’opposent pas, elles sont complémentaires, et se nourrissent l’une l’autre pour comprendre nos origines, repenser notre présent et dessiner notre futur !

Collot Julien, Enseignant chercheur en géosciences marines, Université de Bretagne occidentale ; David Baratoux, Geologist, Institut de recherche pour le développement (IRD); Pierre-Yves Le Meur, Anthropologist, Senior Researcher, Institut de recherche pour le développement (IRD) et Sarah Samadi, professeur en biologie évolutive, Muséum national d’histoire naturelle (MNHN)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de wirestock sur Freepik

The Conversation

Pourquoi les animaux de grande taille développent-ils moins de cancers ?

Comme d’autres gros animaux, l’éléphant développe moins de cancers que l’humain, alors qu’il vit plus longtemps et qu’il possède beaucoup de cellules pouvant évoluer en tumeur. David Clode/Unsplash, CC BY
Crystal Morin, La Rochelle Université; Louise Maille, La Rochelle Université; Mathieu Giraudeau, La Rochelle Université; Orsolya Vincze, La Rochelle Université et Stève Desaivre, La Rochelle Université

Avec plus de 10 millions de décès par an chez l’humain, le cancer représente la deuxième cause de mortalité dans le monde. Le nombre de cas est en constante augmentation depuis quelques décennies, un phénomène souvent attribué au vieillissement des populations, à l’exposition grandissante à des polluants environnementaux potentiellement cancérigènes, notamment des pesticides ou encore à l’augmentation du taux d’obésité dans de nombreux pays.

Mais l’humain n’est pas la seule espèce touchée par le cancer. En effet, si cette maladie est déjà bien documentée chez les animaux de compagnie et d’élevage, on sait maintenant qu’elle est aussi présente chez la grande majorité des organismes multicellulaires, des moules aux éléphants. Néanmoins, toutes ces espèces ne présentent pas une sensibilité identique face au cancer. Par exemple, l’antilope cervicapre, une espèce herbivore originaire d’Inde, n’en développe quasiment pas, alors que le kowari, un petit marsupial carnivore d’Australie, présente un taux de cancer très élevé.

Déterminer les facteurs expliquant pourquoi certaines espèces animales sont bien moins touchées par le cancer et comprendre les mécanismes à l’origine de ces résistances constitue donc un thème de recherche prometteur afin de développer de nouveaux traitements.

Les grands animaux n’ont pas plus de cancer que les autres : le paradoxe de Peto

Dans ce contexte, les espèces de très grandes tailles sont tout particulièrement intéressantes pour les chercheurs. De fait, les grands animaux possèdent beaucoup de cellules et chacune d’entre elles pourrait potentiellement devenir cancéreuse.

En effet, le cancer est causé par une accumulation de mutations, c’est-à-dire des altérations accidentelles de l’ADN. Au sein des cellules, il existe des mécanismes efficaces de réparation de l’ADN, rendant rare l’apparition de mutations. Malgré tout, ces dernières s’accumulent à un rythme régulier au cours de la vie des organismes. Lorsque ces mutations touchent des gènes régulant la prolifération cellulaire, liés à la réparation de l’ADN ou bien à la stabilité du génome, le fonctionnement de la cellule peut être perturbé. Cela peut mener à une prolifération incontrôlée des cellules, qui peuvent alors former une tumeur.

Ainsi, si on suppose que toutes les cellules ont la même probabilité d’accumuler les mutations, alors les animaux de grande taille, possédant plus de cellules, devraient développer plus de cancers. C’est d’ailleurs un schéma que l’on retrouve au sein de certaines espèces comme l’homme et le chien, chez qui la grande taille est associée à une augmentation de la probabilité de développer un cancer.

Néanmoins, lorsque l’on compare les fréquences de cancer entre les espèces de mammifères, cette corrélation avec la taille corporelle ne se vérifie pas. Les espèces de grandes tailles ne développent donc pas plus de cancer que les autres.

Ce phénomène est appelé le paradoxe de Peto en l’honneur du statisticien et épidémiologiste anglais qui, le premier, l’a énoncé. Cette découverte suggère donc que l’évolution de la grande taille s’est faite conjointement avec l’apparition de mécanismes de résistance au cancer plus efficaces. De même, ces mécanismes pourraient également exister chez les espèces aux durées de vie plus longues, chez qui les mutations ont donc plus de temps pour s’accumuler. Plusieurs équipes de scientifiques à travers le monde cherchent maintenant à identifier les « secrets » de ces animaux pour lutter contre cette maladie.

Une multitude de mécanismes de résistance au cancer

L’espèce emblématique associée au paradoxe de Peto est l’éléphant d’Afrique, puisqu’elle a été la première espèce de grande taille chez qui le mécanisme de résistance au cancer a été identifié. Le génome des éléphants contient 20 copies d’un gène particulier, nommé TP53, alors que notre espèce n’en possède qu’une copie. La protéine issue du gène TP53 est responsable de la surveillance et de l’élimination des cellules au comportement anormal. Elle joue également un rôle dans la réparation de l’ADN, limitant le développement de processus cancéreux chez ces pachydermes.

Dans le monde marin, c’est la baleine boréale qui illustre encore une fois ce paradoxe, avec un mécanisme de résistance au cancer agissant plus précocement. En effet, ce mammifère qui vit environ 200 ans possède un système de réparation de l’ADN très précis et très efficace pour certains types de dommages. Ce système implique deux protéines qui limitent l’accumulation de mutations à l’origine de la transformation de cellules saines en cellules cancéreuses.

Des espèces de plus petites tailles présentent également des mécanismes anti-cancers puissants. Le rat-taupe nu, champion de longévité parmi les rongeurs, est extrêmement résistant au cancer. Il semble posséder plusieurs mécanismes pour limiter le développement de tumeurs. Cette espèce possède par exemple une sensibilité décuplée à la densité de cellules au sein d’un tissu, notamment grâce à une production importante d’un sucre complexe, une forme très dense d’acide hyaluronique. Ainsi, si un nombre trop important de cellules sont regroupées dans une même zone, ces dernières arrêtent de se diviser, empêchant la formation de tumeurs.

Les mécanismes de résistance au cancer identifiés chez quelques espèces interviennent à des stades différents de la formation du cancer. Louise Maille, Crystal Morin/Université de La Rochelle, Fourni par l'auteur

Une source d’inspiration pour la médecine ?

Des pales d’éoliennes modélisées d’après les nageoires des baleines jusqu’à la force de maintien du Velcro imitant les fruits de la bardane, le vivant est une source d’inspiration pour la technologie depuis des siècles. Cette approche, appelée biomimétisme, a aussi été appliquée au monde médical à plusieurs reprises. Cependant, elle n’a pour l’instant été que peu utilisée pour lutter contre le cancer, qui est pourtant l’une des maladies les plus mortelles.

La grande taille est apparue de nombreuses fois indépendamment au cours de l’évolution (10 fois rien que pour les mammifères), suggérant l’émergence potentielle d’autant de mécanismes de résistance au cancer. Cette hypothèse est actuellement soutenue par la recherche, puisque, pour chaque espèce étudiée et résistante à cette pathologie, un mécanisme différent a été découvert. Ainsi, en étudiant de nouvelles espèces, il sera peut-être possible d’identifier de nombreux autres mécanismes de résistance au cancer, dans l’espoir que l’un d’eux soit applicable aux traitements destinés à l’espèce humaine.

Crystal Morin, Doctorante en biologie animale et oncologie comparée, La Rochelle Université; Louise Maille, Doctorante en biologie évolutive et oncologie comparée, La Rochelle Université; Mathieu Giraudeau, Chargé de Recherche CNRS en Biologie évolutive, La Rochelle Université; Orsolya Vincze, PostDoc, La Rochelle Université et Stève Desaivre, Ingénieur en biologie, La Rochelle Université

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

The Conversation

Pourquoi les séries sont-elles devenues notre passe-temps favori ?

« Friends », série emblématique des années 1990, mettait déjà en scène une forme d'addiction aux écrans. Capture d'écran Friends / Warner Bros
Bertrand Cochard, Université Côte d’Azur

Le temps que nous employons à regarder des séries a quelque chose de vertigineux : Squid Game totalise à elle seule 2,2 milliards d’heures passées sur Netflix ; un sériephile modéré, qui aurait simplement vu les dix séries les mieux notées sur Senscritique (Game of Thrones, Breaking Bad, The Wire, The Walking Dead, True Detective, Dexter, Friends, Les Soprano, Six Feet Under et House of Cards) y aurait consacré 18 jours, 11h et 24 minutes. Ce phénomène particulier gagne évidemment à être pensé à l’intérieur d’une dynamique plus générale, celle de l’augmentation importante du temps d’écran.

Tout phénomène social répond à une pluralité de causes, qu’il faut identifier, puis hiérarchiser. Pour rendre compte de la popularité des séries, les universitaires ont ainsi fait appel à des explications causales de différents types, que je propose de réunir ici en trois catégories : esthétique (avec une focalisation sur la qualité des œuvres, l’économie narrative spécifique au genre sériel, l’expérience du spectateur, etc.), sociopolitique (avec une insistance cette fois sur la valeur critique et émancipatrice des séries, leur capacité à produire du lien social, ou à l’inverse sur la fonction qu’elles assurent à l’intérieur de l’économie marchande) et, enfin, psychologique (où l’explication se fonde davantage sur la valeur divertissante, thérapeutique, compensatoire, etc., que peuvent avoir les séries pour l’individu).

Parmi ces trois types, on trouvera bien sûr des explications causales plus ou moins convaincantes. Néanmoins, chacune de ces approches se défend, et contribue à accroître la compréhension de notre attachement à la fiction sérielle.

Faire passer le temps

Dans cet article, je voudrais proposer une autre explication, qui n’apparaît pas dans la littérature scientifique portant sur les séries, alors même qu’on pourrait la considérer comme transversale à ces trois catégories. Je crois que cette explication est à même de renforcer notre intelligence des différentes causes à l’origine de la diffusion extraordinaire de la forme-série dans notre quotidien. La voici : les séries font passer le temps. Elles le font mieux que tout autre produit culturel. Par leur quantité, leur durée, la diversité des thèmes qui y sont abordés (souvent avec une relative profondeur, à l’inverse d’un fil d’actualités sur un réseau social), ou encore par leur rythme, elles constituent le passe-temps privilégié du XXIe siècle.

On objectera immédiatement : n’est-ce pas le propre de toute activité que de faire passer le temps ? Sans doute, mais comme le faisait déjà remarquer le philosophe allemand Günther Anders en 1956, le fait que le temps s’écoule – parfois sans même que l’on s’en rende compte – n’est d’ordinaire que la conséquence de l’activité et non son but. Or, dans L’Obsolescence de l’homme, Anders démontrait que le développement de la société consumériste s’accompagnait de la croissance d’activités de loisir dont la fonction primordiale (et non l’effet collatéral) était de relancer le cours du temps après une journée de travail : écouter la radio ou regarder la télévision.

L’explication qu’il donne est fondée sur le travail, mais vaudrait tout aussi bien pour l’écosystème numérique dans lequel nous vivons désormais : nous avons tant été habitués à « être » occupés, c’est-à-dire à ne pas avoir nous-mêmes la responsabilité de décider de ce à quoi l’on consacre notre temps que, lorsque nous faisons face à cette responsabilité durant notre « temps libre », nous ne pouvons manquer d’éprouver une forme d’angoisse. L’expérience du temps libre serait à ce titre indissociable de l’expérience d’un vide tout à fait spécifique : il est l’envers de ce « plein » que constitue la journée de travail, et devrait en toute rigueur moins être qualifié de « vide » que de « plein qui a été vidé », et qui réclame par conséquent d’être rempli. Par quoi ? N’importe quelle activité susceptible d’occuper l’individu, de rythmer son temps, et de lui permettre d’éviter l’ennui. C’est de cette manière qu’Anders expliquait « la demande de produits de consommation pouvant être consommés de façon continue, sans risquer le moins du monde de rassasier le consommateur ».

À la lumière de cette analyse, on ne sera pas surpris d’apprendre que, lors du confinement, Netflix est parvenu à séduire 15,8 millions de nouveaux abonnés, contre 9,6 millions sur la même période l’année précédente. Netflix a su conjurer cette angoisse dont parle Anders, celle-là même qui naît de l’espace de liberté résultant du loisir ; la plate-forme de VOD (vidéo à la demande) a su remplir un temps dont nous ne savions que faire.

Séquencer le temps

Que l’être humain ne puisse faire face à un temps qui n’avance pas ou plus, et soit prêt à pratiquer n’importe quelle activité capable de remettre le temps en mouvement, c’est encore ce que l’écrivain et dramaturge Samuel Beckett montrait dans En attendant Godot, lorsqu’il mettait en scène un personnage résolu à effectuer une activité absurde (enlever sa chaussette, pour la remettre immédiatement) afin d’éviter de patauger dans la « bouillie » du temps.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

Seulement, la différence entre ce strip-tease insensé et le visionnage d’une série doit ici être marquée : si ce sont bel et bien des « passe-temps » au sens que l’on a donné à ce terme, le second possède sur le premier un avantage considérable. La série, en effet, ne se contente pas de faire avancer le temps – comme peut le permettre une séance de scrolling sur son smartphone, pour tuer le temps dans les transports en commun.

Par la puissance de la fiction, et via le déploiement d’une multitude d’arcs narratifs, elle confère en outre un ordre, une forme, à ce temps qu’elle remplit. Il est ainsi possible de compléter l’hypothèse initiale, en disant : si l’on regarde tant de séries, ce n’est pas simplement parce qu’elles font passer le temps ; c’est aussi parce qu’elles contribuent à le séquencer. Et sans doute ce séquençage, sur un temps long, offre-t-il pour le consommateur un contraste plaisant avec le reste de l’offre de divertissements (jeux, réseaux sociaux, médias, etc.), qui favorisent davantage une expérience morcelée du temps.

Couverture du livre Vide a la demande.

De quoi ce besoin de séquençage est-il le symptôme ? Comme l’a montré Hartmut Rosa, le temps s’accélère. Cette accélération se traduit par une compression de toutes les durées. En d’autres termes : de ce que disait le sociologue Richard Sennett du travail moderne, à savoir qu’il était émietté, constitué d’épisodes et de fragments – « dans la nouvelle économie, indiquait-il, l’expérience dominante est celle de la dérive de lieu en lieu, de job en job » –, il faudrait désormais le dire des relations sociales, des modes de consommation, ou même de la situation politique.

Le temps individuel et collectif manque cruellement de forme, tant son accélération, sur fond de crise climatique, donne lieu à des séquences d’événements brèves et insignifiantes (un scandale, une catastrophe ou un buzz venant se chasser les uns les autres). La force des séries est de ramener, dans le temps du loisir, cette forme de l’histoire (progrès, irréversibilité, sens, etc.) dont l’histoire en tant que telle est aujourd’hui dépourvue. Elles sont le passe-temps consolateur d’une époque anhistorique, symptôme d’une histoire qui ne subsiste plus guère que sur un mode spectaculaire.


Bertrand Cochard est l’auteur de « Vide à la demande, Critique des séries », paru aux éditions L’Echappée.

Bertrand Cochard, Philosophe, Université Côte d’Azur

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de vecstock sur Freepik


Image de freepik

The Conversation

Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches

Lonni Besançon, Linköping University et Guillaume Cabanac, Institut de Recherche en Informatique de Toulouse

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


L’image du chercheur qui travaille seul en ignorant la communauté scientifique n’est qu’un mythe. La recherche est fondée sur un échange permanent, tout d’abord et avant tout pour comprendre les travaux des autres et ensuite, pour faire connaître ses propres résultats. La lecture et l’écriture d’articles publiés dans des revues ou des conférences scientifiques sont donc au cœur de l’activité des chercheurs. Quand on écrit un article, il est fondamental de citer les travaux de ses pairs que ce soit pour décrire un contexte, détailler ses propres sources d’inspiration ou encore expliquer les différences d’approches et de résultats. Être cité par d’autres chercheurs, quand c’est pour de « bonnes raisons », est donc une des mesures de l’importance de ses propres résultats. Mais que se passe-t-il lorsque ce système de citations est manipulé ? Notre récente étude révèle une méthode insidieuse pour gonfler artificiellement les comptes de citations : les « références furtives ».

Les dessous de la manipulation

Le monde de la publication scientifique et son fonctionnement ainsi que ses potentiels travers et leurs causes sont des sujets récurrents de la vulgarisation scientifique. Cependant, penchons nous tout particulièrement sur un nouveau type de dérive affectant les citations entre articles scientifiques, censées refléter les apports et influences intellectuelles d’un article cité sur l’article citant.

Les citations de travaux scientifiques reposent sur un système de référencement standardisé : les auteurs mentionnent explicitement dans le texte de leur article, a minima le titre de l’article cité, le nom de ses auteurs, l’année de publication, le nom de la revue ou de la conférence, les numéros de page… Ces informations apparaissent dans la bibliographe de l’article (une liste de références) et sont enregistrées sous forme de données annexes (non visibles dans le texte de l’article) qualifiées de métadonnées, notamment lors de l’attribution du DOI (digital object identifier), un identifiant unique pour chaque publication scientifique.

Les références d’une publication scientifique permettent, de façon simplifiée, aux auteurs de justifier des choix méthodologiques ou de rappeler les résultats d’études passées. Les références listées dans chaque article scientifique sont en fait la manifestation évidente de l’aspect itératif et collaboratif de la science. Cependant, certains acteurs peu scrupuleux ont visiblement ajouté des références supplémentaires, invisibles dans le texte, mais présentes dans les métadonnées de l’article pendant son enregistrement par les maisons d’édition. Résultat ? Les comptes de citations de certains chercheurs ou journaux explosent sans raison valable, car ces références ne sont pas présentes dans les articles qui sont censés les citer.

Un nouveau type de fraude et une découverte opportuniste

Tout commence grâce à Guillaume Cabanac (coauteur de l'article) qui publie un rapport d’évaluation post-publication sur PubPeer, un site où les scientifiques discutent et analysent les publications. Il remarque une incohérence : un article, probablement frauduleux, car présentant des « expressions torturées », d’une revue scientifique publiée par l’éditeur de revues scientifiques Hindawi a obtenu beaucoup plus de citations que de téléchargements, ce qui est très inhabituel. Ce post attire l’attention de plusieurs « détectives scientifiques » ; une équipe réactive se forme avec Lonni Besançon, Guillaume Cabanac, Cyril Labbé et Alexander Magazinov.

Nous essayons de retrouver, via un moteur de recherche scientifique, les articles citant l’article initial, mais le moteur de recherche Google Scholar ne fournit aucun résultat alors que d’autres (Crossref, Dimensions) en trouvent. Il s’avère, en réalité, que Google Scholar et Crossref ou Dimensions n’utilisent pas le même procédé pour récupérer les citations : Google Scholar utilise le texte même de l’article scientifique alors que Crossref ou Dimensions utilisent les métadonnées de l’article que fournissent les maisons d’édition.

Pour comprendre l’étendue de la manipulation, nous avons examiné alors trois revues scientifiques qui semblaient citer massivement l’article d’Hindawi. Voici notre démarche en trois étapes.

  • Nous listons d’abord les références présentes explicitement dans les versions HTML ou PDF des articles ;

  • Ensuite, nous comparons ces listes avec les métadonnées enregistrées par Crossref, une agence qui attribue les DOIs et leurs métadonnées. Nous découvrons que certaines références supplémentaires ont été ajoutées ici, mais n’apparaissaient pas dans les articles ;

  • Enfin, nous vérifions une troisième source, Dimensions, une plate-forme bibliométrique qui utilise les métadonnées de Crossref pour calculer les citations. Là encore, nous constatons des incohérences.

Le résultat ? Dans ces trois revues, au moins 9 % des références enregistrées étaient des « références furtives ». Ces références supplémentaires ne figurent pas dans les articles, mais uniquement dans les métadonnées, faussant ainsi les comptes de citations et donnant un avantage injuste à certains auteurs. Certaines références réellement présentes dans les articles sont par ailleurs « perdues » dans les métadonnées.

Les implications et potentielles solutions

Pourquoi cette découverte est-elle importante ? Les comptes de citations influencent de façon significative les financements de recherche, les promotions académiques et les classements des institutions. Elles sont utilisées de façon différente suivant les institutions et les pays, mais jouent toujours un rôle dans ce genre de décisions.

Une manipulation des citations peut par conséquent conduire à des injustices et à des décisions basées sur des données fausses. Plus inquiétant encore, cette découverte soulève des questions sur l’intégrité des systèmes de mesure de l’impact scientifique qui sont mises en avant depuis plusieurs années déjà. En effet, beaucoup de chercheurs ont déjà, par le passé, souligné que ces mesures pouvaient être manipulées, mais surtout qu’elles engendraient une compétition malsaine entre chercheurs qui allaient, par conséquent, être tentés de prendre des raccourcis pour publier plus rapidement ou avoir de meilleurs résultats qui seraient donc plus cités. Une conséquence, potentiellement plus dramatique de ces mesures de productivité des chercheurs réside surtout dans le gâchis d’efforts et de ressources scientifiques dû à la compétition mise en place par ces mesures.

Pour lutter contre cette pratique, le « Collège Invisible », un collectif informel de détectives scientifiques auquel notre équipe contribue, recommande plusieurs mesures :

  • Une vérification rigoureuse des métadonnées par les éditeurs et les agences comme Crossref.

  • Des audits indépendants pour s’assurer de la fiabilité des données.

  • Une transparence accrue dans la gestion des références et des citations.

Cette étude met en lumière l’importance de la précision et de l’intégrité des métadonnées, car elles sont, elles aussi, sujettes à des manipulations. Il est également important de noter que Crossref et Dimensions ont confirmé les résultats de l’étude et qu’il semblerait que certaines corrections aient été apportées par la maison d’édition qui aurait manipulé les métadonnées confiées à Crossref et, par effet de bord, aux plates-formes bibliométriques comme Dimensions. En attendant des mesures correctives, qui sont parfois très longues, voire inexistantes, cette découverte rappelle la nécessité d’une vigilance constante dans le monde académique.

Lonni Besançon, Assistant Professor in Data Visualization, Linköping University et Guillaume Cabanac, Professeur des universités, Institut de Recherche en Informatique de Toulouse

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

L'accent italien de Monica Bellucci semble inséparable de son identité. Reza Veziri/Flickr, CC BY

The Conversation

Accent étranger et célébrité : des stéréotypes et du sexisme

L'accent italien de Monica Bellucci semble inséparable de son identité. Reza Veziri/Flickr, CC BY
Grégory Miras, Université de Lorraine

Le 7 juin 2024 sort la série Becoming Karl Lagerfeld, retraçant une partie de la vie du célèbre couturier. S’il est reconnu pour ses 36 années de contribution à la maison Chanel, il l’est tout autant pour son franc-parler et sa manière de s’exprimer. Daniel Brühl, acteur germano-espagnol incarnant le personnage dans la série, s’est habillé de ces deux spécificités comme le relate l’une des actrices de la série pour le Huffington Post :

« Il parle français avec un accent allemand, mais quand il était en Karl, c’était encore un accent différent. »

Ce biopic est une occasion d’interroger la manière dont les accents étrangers de célébrités participent à l’émergence, la mise en circulation de stéréotypes, notamment au sein de représentations sexistes.

Le cas Lagerfeld

La question des accents autour de Karl Lagerfeld a toujours été présente. Il reconnaît lui-même avoir une « façon étrange de parler mais en allemand aussi » dans une interview de Thierry Ardisson.

Sa manière de parler résulterait donc d’activations croisées avec l’allemand mais aussi d’une rapidité d’élocution. En phonétique, les chercheurs dissocient deux mesures. D’une part, le débit de parole que l’on calcule à partir du nombre de mots ou de syllabes par minute ou seconde sur un temps de parole déterminé, et d’autre part la vitesse d’élocution mesurée de la même manière en excluant la durée des pauses. Concernant son accent, il serait élucidé à partir d’indices phonétiques se rapprochant de la phonologie de l’allemand, par exemple l’assourdissement de certaines consonnes finales. Ainsi « le village » (/l?vila?/) pourra être prononcé « le villach » (/l?vila?/).

Le couturier associe son débit de parole rapide au peu de temps que lui laissait sa mère pour raconter sa journée et ancre de ce fait ses deux spécificités de parole dans son identité franco-allemande. Ce rapport identitaire à son accent ne l’empêcha pas d’émettre de violents jugements à l’encontre d’autres accents. En effet, il avait qualifié l’accent d’Eva Joly, alors candidate franco-norvégienne à l’élection présidentielle, d’« insulte à la langue française », pensant que son accent constituait une incapacité à la plus haute fonction élective.

Contrairement à cette dernière, l’accent dit allemand de Karl Lagerfeld a plutôt été signalé comme un trait lui étant spécifique et qualifié de « légendaire », « inimitable » ou « irresistible ». Quelques exceptions renvoient son accent à une dimension « froide et autoritaire » voire à l’imaginaire des guerres mondiales : « Capable de saillies sanglantes, de déclarations polémiques, il a défrayé la chronique autant qu’il l’a amadouée, avec un débit mitraillette assorti d’un fort accent germanique ».

Inégalités de genre

Pour mieux comprendre les phénomènes sociolinguistiques qui touchent les accents, les scientifiques peuvent s’appuyer sur des corpus et les réseaux sociaux constituent une source inépuisable de discours. Des chercheurs comme Florent Moncomble développent des outils moissonnant le web afin de constituer ses propres corpus. Ces derniers permettent notamment de s’intéresser aux stéréotypes qu’Henri Boyer définit comme « une sorte de représentation que la notoriété, la fréquence, la simplicité ont imposée comme évidence à l’ensemble d’une communauté ».

Ainsi, un corpus de tweets regroupant les 80 derniers posts de 10 célébrités hommes (Karl Lagerfeld, Mika, Zlatan Ibrahimovi?, Timothée Chalamet, Nikos Aliagas) et femmes (Eva Joly, Cristina Córdula, Monica Bellucci, Tonya Kinzinger, Esther Perel) reconnues comme ayant un accent dit étranger est éclairant sur la manière dont les stéréotypes langagiers s’entremêlent avec d’autres clichés notamment ceux liés au genre. Tout d’abord, on peut noter que les femmes (et leur accent) sont fréquemment objectifiés, voire sexualisées par rapport au regard masculin. Cette sexualisation est d’autant plus forte si les stéréotypes de genre (« la femme fatale ») et d’accent (la supposée culture latine de la séduction) se rejoignent.

À l’opposé, un accent identifié comme « froid » renverra à l’imaginaire de la « frigidité ». L’accent belge de

et québécois de Nelly Arcan seront les victimes de l’impolitesse-spectacle des émissions de Thierry Ardisson. Eva Joly fera tout autant les frais de ces associations lorsque Nadine Morano évoque que « le problème de Joly n’est pas que son accent, c’est aussi physique ».

De la même manière, Tonya Kinzinger, actrice phare de la série Sous le soleil, fait face à des attaques physiques :

. Par ailleurs, son accent est perçu comme en adéquation avec son rôle d’actrice dans la série mais ne convient pas pour un rôle de présentatrice de la Star Academy :
. Pour terminer, le stéréotype de la femme « calculatrice » revient particulièrement pour des célébrités comme Cristina Córdula dont
.

[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]

À l’inverse, l’accent de célébrités masculines, même s’il fait également l’objet de critiques, stimule des imaginaires et stéréotypes largement plus valorisants. L’accent de Thimothée Chalamet qualifié comme

renvoie à une perception androgyne de sa masculinité. Revenant à Karl Lagerfeld, si son accent est pointé, il est principalement présenté en miroir à « son génie » :
,
.

En ce qui concerne Mika, Nikos ou Zlatan Ibrahimovi?, peu de tweets traitent directement de leurs accents mais plutôt de situations relatives à ces derniers. L’accent de Mika est (faussement) démasqué derrière le personnage du « Croco » dans Mask Singer même s’il est perçu comme

. Le présentateur Nikos
d’autres accents que le sien.

La pluriphonie comme norme sociale

Clichés, représentations et stéréotypes nourrissent la manière dont des caractéristiques identitaires sont associées aux individus. Ces univers sont complexes et irrigués à différents niveaux. La science n’est par ailleurs pas épargnée par ces derniers, comme le souligne le linguiste Aron Arnold en démontrant que les phonéticiens ont eu tendance à réfléchir à partir de la physiologie vocale masculine et à pathologiser celle féminine. Aussi, l’accent dit « étranger », en plus de renvoyer à une forme d’exclusion sociale et du racisme, se double de stéréotypes de genre : l’accent de la femme met en valeur sa beauté ou participe à sa laideur et celui de l’homme, ses compétences professionnelles.

Toutes ces considérations amènent à se poser la question de la manière dont on perçoit les locuteurs et leur accent dans la société. Elles conduisent également à rappeler que l’accent est toujours le produit d’une perception subjective de celui qui croit l’entendre et que la norme est une pluriphonie – les individus ont des répertoires variés de prononciation qu’ils mobilisent en fonction des situations. Rendre visible la diversité de ces profils de locuteurs participe à normaliser cette vision pluriphonique du monde.

Grégory Miras, Professeur des Universités en didactique des langues, Université de Lorraine

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Image de freepik


Image de freepik

The Conversation

L’IA est-elle capable d’interpréter ce qu’on lui demande ?

Rémy Demichelis, Université Paris Nanterre – Université Paris Lumières

La notion d’interprétation est de plus en plus présente dans le monde de l’intelligence artificielle. Pour l’humain, il s’agit d’interpréter des algorithmes difficiles à expliquer mathématiquement. Pour la machine, l’enjeu est d’interpréter des données afin d’en tirer des conclusions. Et, depuis peu, elle doit interpréter une brève instruction en langage naturel : c’est le principe de fonctionnement de ChatGPT et de la dernière innovation d’OpenAI, son modèle GPT-4o qui interagit par la voix avec une fluidité troublante. Nous pouvons ainsi parler d’un véritable tournant interprétatif de l’IA.

L’art d’interpréter est néanmoins connu depuis des siècles sous le terme d’herméneutique. Il s’est d’abord appliqué à la lecture des poètes ou des textes sacrés avant de se muer en courant philosophique pour signifier que l’interprétation est au fondement de la compréhension, voire qu’elle représente l’activité nécessaire de l’être que nous sommes. Notre accès au monde est en effet toujours influencé par certaines tonalités qui ne sont pas neutres, mais empreintes d’une charge culturelle. Seulement, la ressemblance s’arrête-t-elle à la simple utilisation du terme d’interprétation ? Autrement dit, l’IA fait-elle de l’herméneutique ? Doit-on en faire pour la comprendre ? Ou est-ce les deux à la fois ?

Dialoguer directement avec la machine dans notre langue

L’événement qui parachève le tournant interprétatif de l’IA est sans nul doute la mise en ligne de ChatGPT, en novembre 2022. L’innovation essentielle des grands modèles de langage, comme le sien, est qu’il est exigé de la machine qu’elle interprète les instructions de l’humain plus que cela n’a jamais été le cas. L’internaute entre un « prompt » pour demander ce qu’il veut, puis le système lui fournit une réponse, qu’il s’agisse d’un texte, d’une image ou d’un propos à voix haute. Nous ne nous adressons plus à la machine en langage informatique, en code, mais en langage naturel ou en données dites non structurées.

Certes, les « hallucinations » (erreurs de la machine sous forme de propos vraisemblables, mais délirants) sont innombrables et les résultats peuvent encore être améliorés, mais il se passe quelque chose. L’interprétation, cette activité que nous avions longtemps cru réservée aux humains, est aujourd’hui investie par des outils numériques.

Il y a en vérité déjà bien longtemps que l’informatique est devenue un objet d’interprétation, dès lors que la science s’est mise à avoir de plus en plus recours aux instruments numériques et aux techniques d’imagerie (médicale, nanométrique, spectroscopique, etc.). Cela, le philosophe américain Don Ihde, décédé cette année, l’a remarqué très tôt, d’abord dans son ouvrage Technology and the Lifeworld (1990).

C’est malheureusement juste après sa mort que sa pertinence semble nous sauter aux yeux. « Toute imagerie appelle une interprétation », écrivait-il en 2021. Il poursuit en expliquant que l’imagerie est « technologique dans son incorporation » car elle requiert l’usage d’un outil sophistiqué pour la produire, faire apparaître l’image et donc l’objet étudié. Il parle ainsi d’un « basculement du XXe–XXIe siècles vers les techniques d’imagerie […] qui ont transformé les pratiques scientifiques et la production de la preuve […] Ces technologies ont contribué à renforcer la nécessité de l’interprétation ».

Pour Ihde, ce qui caractérise cette nécessité est de ne plus être dans un rapport direct aux choses. Il faut en passer par les instruments ou les images, mais de telle manière que nous construisons l’objet par le médium qui nous y donne accès, comme la photographie ou l’instrument de mesure scientifique. Notre compréhension de l’objet est alors indissociable du médium sans lequel nous ne pourrions pas le connaître. La célèbre photographie d’un trou noir (2019), qui n’est pas une photographie justement, mais une construction à partir de données provenant de huit radiotélescopes différents, en fournit une des meilleures illustrations.

Le retour de l’ambiguïté

Selon Ihde, le tournant interprétatif dans lequel s’est engagée la science tend à combler le fossé entre « explication » et « compréhension ». C’est une chose d’expliquer comment a été construit un château, avec quels matériaux ou avec quelles techniques. C’en est une autre de comprendre la raison de son existence, pourquoi ses bâtisseurs ont décidé de l’ériger à tel endroit à tel moment. Dans ce dernier cas (celui de la compréhension), il convient de faire appel à l’interprétation, au regard d’éléments historiques. Or, la science verse de plus en plus dans l’interprétation pour ne plus seulement expliquer les objets qu’elle étudie. Cela marque un rapprochement entre sciences et humanités (lettres, philosophie, histoire…).

L’IA accentue encore ce rapprochement. Déjà parce qu’il est demandé à la machine d’interpréter ce qu’on lui donne, mais également parce que l’humain doit de plus en plus interpréter les résultats de la machine. L’ambiguïté prend une place grandissante dans le monde de l’informatique qui, héritière des mathématiques, s’en croyait préservée. Et qui dit ambiguïté dit aussi interprétation. Les systèmes d’IA aujourd’hui en vogue, particulièrement l’analyse d’images ou la génération de texte, reposent sur des réseaux de neurones artificiels. Cette technique d’apprentissage dit « profond » ne se laisse toutefois pas appréhender facilement, même par les experts. Ce qui est très dommageable lorsqu’on se rend compte bien après que la machine reproduit un biais discriminatoire.

L’AI Act, règlement portant sur l’IA récemment adopté par l’Union européenne, prévoit cependant que les systèmes dits à « haut risque » fassent l’objet d’analyses poussées (analyses dont la nature reste à définir). Mais il est impossible de déterminer exactement quelles sont les raisons pour lesquels le logiciel donne tel ou tel résultat, tout juste pouvons-nous « interpréter » son fonctionnement. S’il existe aujourd’hui des techniques d’« explicabilité » pour estimer le poids de chaque variable, c’est cependant bien le terme d’« interprétabilité » qui devrait être privilégié, car elles ne nous offrent que des estimations, mais aucune explication claire et distincte, celle que les mathématiques exigent pour éliminer toute ambiguïté.

L’IA nous invite même à aller au-delà d’interprétations quantitatives, puisqu’il convient de comprendre au regard de l’histoire comment les modèles d’IA construisent leurs interprétations parfois biaisées ou discriminantes : « Même si quelqu’un arrivait à se convaincre que parfois les algorithmes recrachent simplement du non-sens, la structure de ce non-sens tendra vaguement vers la structure des préjugés historiques », souligne la chercheuse et figure de l’éthique de l’IA Timnit Gebru. Si des techniques d’interprétabilité auront leur utilité, il sera aussi nécessaire d’analyser les productions de l’IA d’une façon plus sensible, en considérant qu’elles sont aussi le fruit d’une histoire et d’une société donnée.

Interpréter pour trouver du sens

Si l’IA est effectivement capable d’interpréter dans une certaine mesure nos propos afin de nous répondre, la compréhension est un phénomène qui semble aller au-delà. Comprendre quelque chose exige une certaine part d’imagination pour se figurer l’objet de notre connaissance dans ses configurations multiples et nouvelles, pour l’appréhender d’une manière qui est rarement formelle, mais qui passe par un ressenti. Certains élèves récitent leur leçon admirablement sans rien comprendre, car il leur manque ce ressenti nécessaire pour s’exclamer : « j’ai compris ! » Sentiment quasiment impossible à décrire, mais ne vous êtes-vous jamais émerveillé d’avoir soudainement compris quelque chose qui vous résistait ? Alors, vous savez bien ce qu’est ce ressenti, cet événement sensible de la compréhension.

Et ce ressenti est fertile, car il peut produire l’interprétation : de nouveaux liens nous apparaissent, de nouvelles configurations, de nouveaux horizons qui appellent notre imagination. On dit parfois : « cela fait sens » et ce n’est pas un hasard. Cela fait sens, au sens propre, en tant que je ressens cette interprétation comme juste. C’est alors un aspect de l’interprétation qui sépare notre compréhension de celle de la machine, puisque les systèmes informatiques sont insensibles. L’imagination nécessaire à cet art ne sera jamais pour eux qu’une « e-magination », comme l’écrit le philosophe Alberto Romele (Digital Hermeneutics, 2020).

L’interprétation produite par l’IA générative se distingue ainsi de la nôtre en ce qu’elle est incapable de comprendre quoi que ce soit. Elle représente néanmoins un aspect décisif du tournant interprétatif qui se déploie de différentes manières dans le monde des sciences. La machine interprète nos demandes en langage naturel, et nous interprétons ses résultats ou son fonctionnement. L’IA remet au goût du jour l’herméneutique au point que nous devrions parler, non plus d’intelligence artificielle, mais d’interprétation artificielle.


Pour aller plus loin : L’Intelligence artificielle, ses biais et les nôtres de Rémy Demichelis, éditions du Faubourg, à sortir le 12 juin 2024.

Rémy Demichelis, Docteur en philosophie, Université Paris Nanterre – Université Paris Lumières

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.