Par le

Ce que je retire de ma discussion avec ChatGPT sur la déforestation en Amazonie

François-Michel Le Tourneau, Université Paris 1 Panthéon-Sorbonne

Curieux de savoir si j’allais rapidement me retrouver au chômage du fait des progrès des intelligences artificielles, j’ai voulu savoir ce dont le modèle public le plus avancé à ce jour, ChatGTP, était capable sur une thématique que j’estime connaître assez bien.

Je lui ai donc posé .

Conversation avec Chat GPT sur la déforestation en Amazonie.

Un résultat globalement plutôt convaincant

L’interaction avec ChatGTP est fluide, la formulation de ses réponses de qualité. Cette apparence initiale est très importante, car elle conduit souvent à être moins attentif au fond. Manifestement, c’est sur cet aspect que se sont concentrés les programmeurs, avec un résultat exceptionnel.

Au-delà de la forme, on sent que ChatGPT a bien travaillé son sujet. Les réponses obtenues sur les différents environnements présents en Amazonie – même s’il manque les savanes dans sa liste de réponses aux questions 3 et 4 –, la déforestation, la culture du soja, les différents niveaux de responsabilité des acteurs impliqués, etc. sont assez complexes, mettant en avant de nombreuses dimensions.

Quand on demande pourquoi la déforestation pose un problème (question 6), le robot avance cinq éléments : les pertes de biodiversité, le changement climatique, les interférences dans le cycle de l’eau, la dégradation des sols et les impacts sur les communautés locales. Pas mal.

Lorsqu’on demande qui est responsable de la déforestation (question 13 et 15), on obtient aussi cinq catégories (lui aurait-on expliqué qu’on peut en avoir entre trois et cinq avant que le public décroche ?) : les agriculteurs et éleveurs, les exploitants forestiers, les exploitants miniers, les projets d’infrastructure et les politiques gouvernementales. Je ne ferais pas tellement mieux.

Des redondances

Si ChatGTP a bien travaillé son sujet, il semble s’en tenir à un certain nombre de points, répétés inlassablement.

Ainsi, aux questions « Explique-moi ce qu’est la déforestation en Amazonie ? » et « Pourquoi la déforestation en Amazonie est un problème ? », ChatGPT fournit des réponses comprenant les mêmes informations, l’une étant simplement la version développée de l’autre.

Si ces remarques répétées sont plutôt justes, elles ressemblent parfois à des manières de ne pas aller plus loin. Comme si toute tentative d’obtenir un propos plus tranché se heurtait aux probabilités moyennes qui permettent à l’algorithme de fonctionner et à cette absence d’intentionnalité qui caractérise ces productions ; une particularité qui conduit le chercheur en philosophie Fernandez-Velasco à parler de « quasi-texte ».


Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Au programme, un mini-dossier, une sélection de nos articles les plus récents, des extraits d’ouvrages et des contenus en provenance de notre réseau international. Abonnez-vous dès aujourd’hui.


Si produire un texte « moyen » (au sens où il propose l’association de mots la plus probable statistiquement) peut faire du sens pour rédiger une carte de vœux, il l’est beaucoup moins lorsqu’on cherche des explications sur un phénomène socio-économique pour contribuer à la connaissance scientifique.

Pas de chiffres précis ni de faits

J’ai donc un peu insisté pour obtenir des éléments précis. ChatGTP étant censé avoir digéré tout le web jusqu’en 2020, il doit donc bien avoir des chiffres à me donner !

J’ai bien été déçu du résultat : me dire qu’il y a eu « des pics de déforestation dans les années 1980, 1990, et début des années 2000 » (question 7) n’engage pas à grand-chose. De même, estimer « qu’environ 2 000 km2 ont été déforestés chaque année entre 2015 et 2019 » (question 7) en Amazonie brésilienne est non seulement faux (c’est plutôt 7 000 km² par an) et surtout bizarre puisqu’on peut très facilement avoir des données précises chaque année par l’Institut d’études spatiales du Brésil (INPE) – que ChatGTP cite comme source (question 20)…

Les données plus récentes semblent mieux assimilées puisqu’en revanche le pic de déforestation du début du gouvernement Bolsonaro est bien mentionné pour 2020, avec le chiffre correct de 11 088 km2.

Tout essai d’obtenir des informations précises donnera une réponse dans laquelle le robot ajoutera une mention du fait que les chiffres sont un peu relatifs et difficiles à établir. Ce n’est pas totalement faux, mais contribue à disqualifier par avance le travail de ceux qui essayent justement de donner des estimations les plus fiables. Personne ne prétend que le travail de l’INPE soit parfait, mais il a l’avantage d’utiliser une méthodologie constante depuis plus de 30 ans, si bien qu’il constitue un baromètre assez fiable de la tendance et de l’intensité du phénomène. C’est bien ce qu’il faudrait souligner plutôt que la relativité ou la faiblesse des méthodes.

Dans le même ordre d’idées, si je demande sur quoi le robot se base pour me donner ses informations (partie « sources ») : il mentionne uniquement l’INPE pour les données brutes, quelques ONG dont le WWF et Amazon Conservation Association (qui ne travaille pas au Brésil alors que toutes mes questions portaient sur l’Amazonie brésilienne). Aucune ONG locale, alors que certaines comme l’Instituto Socioambiental – ISA, l’Instituto de Pesquisa Ambiental da Amazônia – IPAM, ou l’Instituto do Homem e Meio Ambiente da Amazônia – IMAZON sont de renommée mondiale et que les chercheurs qui leur sont associés publient régulièrement dans des revues de premier plan, comme Science ou Nature.

Attardons-nous justement sur ce que nous dit ChatGPT des études scientifiques à propos de la déforestation en Amazonie (réponse à la question 20) :

« Des chercheurs et des universitaires ont mené des recherches sur les facteurs de déforestation en Amazonie […]. Ces études sont publiées dans des journaux scientifiques et dans des forums académiques. »

Quand je réclame des précisions sur les chercheurs (question 22), j’obtiens une liste avec les incontournables Philip Fearnside et Daniel Nepstad (mais pas le climatologue Carlos Nobre, comme pour les ONG, ChatGPT semble préférer les anglophones aux locaux…) ; il y a aussi Caroline Figuereio et Jennifer Albertine… que j’ai jusqu’ici été incapable d’identifier, alors que la seconde aurait été membre de l’université d’Arizona dans laquelle j’ai passé plusieurs années. D’où vient cette information, introuvable sur Google ? ChatGPT ne semble pas le savoir non plus puisqu’il « m’avoue » au final que Jennifer Albertine n’aurait finalement rien publié sur l’Amazonie…

Chat GPT se trompe parfois….

Et si je n’avais pas été chercher plus loin ? De fait les erreurs, petites ou plus grandes, sont assez nombreuses quand on regarde de près.

Des erreurs et des approximations

ChatGPT m’a heureusement donné l’occasion de distinguer mon « savoir humain » en me permettant de repérer des petites perles.

Ainsi, il m’explique que les chiffres de la déforestation sont difficiles à établir, car « certaines zones sont difficiles d’accès et la déforestation illégale y est souvent mal enregistrée » (questions 8 et 9). Or, depuis l’avènement des satellites d’observation de la Terre, la détection des phénomènes comme ceux de déforestation ne dépend plus de l’accès au terrain (le contrôle du phénomène, en revanche, oui !).

Sur le rôle de la production de soja dans la déforestation (question 19), le robot m’a expliqué que la plus grande partie de la production de soja avait lieu « dans les régions sud et est du bassin amazonien », ce qui est une conception commune, mais fausse. Bien que le Mato Grosso soit le plus grand producteur, deux tiers du soja du Brésil sont produits en dehors de l’Amazonie.

Enfin, lorsque j’ai posé une question spécifique sur l’Amazonie brésilienne (questions 3), j’ai obtenu exactement la même réponse que pour l’Amazonie en général (question 2). Sur « l’Amazonie légale » (question 5), elle aurait été créée par une loi brésilienne « dans les années 1970 », alors que le texte la définissant date de 1946… Ce type d’exemples ne manque pas.

Outil révolutionnaire ou gigantesque café du commerce ?

Les premières interactions avec ChatGPT sont impressionnantes, mais plus on essaye de tirer le robot de son discours générique, plus il persiste ; ou bien il commence à parsemer ses réponses d’erreurs ou d’approximations. Par ailleurs, si l’on connait son sujet, on n’apprend rien de neuf.

Ces deux points viennent de la manière dont sont créées, pour le moment, ces « intelligences artificielles ». Basés sur l’ingestion de quantités immenses de données sans qualification critique de celles-ci, ces algorithmes sont capables de répondre à des questions complexes sans trop se tromper, mais il leur est impossible d’être spécifique, car ils incorporent une diversité de points de vue et ne reproduisent qu’une position médiane. Ils ne peuvent donc être à la pointe d’un domaine, proposer des connaissances nouvelles ou peu connues ou bien éviter les lieux communs et leur dose d’erreur ou d’approximation.

Le discours scientifique tente pour sa part d’élaborer une parole qui soit la plus précise et spécifique possible, éventuellement contradictoire et prenant position dans l’affirmation de faits, dans le choix des sources, etc. Cela ne veut pas dire que ce discours est toujours exact. Bien au contraire : la science suppose que l’on passe son temps à vérifier les énoncés, ce qui permet parfois de s’apercevoir que ce qui était vrai ou accepté doit être désormais refusé, car il a finalement été démontré que c’était faux ou inexact.

C’est dans cette dynamique (passablement chaotique) que se produisent le progrès et l’affinement de la pensée. Or la construction d’un argumentaire, la recherche de données précises et actualisées ou la recherche d’une démonstration sont des singularités. Elles ne peuvent provenir de la moyenne des discours collectés. Et elles impliquent aussi une cohérence dans l’ensemble de la démonstration alors que ChatGPT traite chaque question de manière indépendante. Cette qualification des informations et la validation des conclusions est la base de la science moderne et du principe de l’évaluation par les pairs (peer-review).

C’est ce filtre critique qui manque aujourd’hui à ChatGPT.

François-Michel Le Tourneau, Géographe, directeur de recherche au CNRS, Université Paris 1 Panthéon-Sorbonne

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Comment on traite l’eau pour la rendre potable

Julie Mendret, Université de Montpellier et Alice Schmitt, Université de Montpellier

En France, les deux tiers de l’eau potable produite sont captés dans les eaux souterraines, aussi appelées de nappes phréatiques. Le tiers restant provient des eaux superficielles (rivières, fleuves, lacs, barrages), aussi appelées « eaux de surface ». Une fois captée, l’eau est ensuite acheminée jusqu’à une usine de potabilisation pour être traitée.

Le traitement appliqué dépend de la qualité initiale de l’eau captée, qui dépend généralement elle-même de la localisation du captage ; à noter que les eaux de surface nécessitent habituellement des traitements plus poussés que les eaux souterraines.

Jusqu’à présent, pour les eaux souterraines, un traitement physique simple (de filtration et de décantation) et une désinfection suffisaient dans la majorité des cas.

Pour les eaux de surface, un processus plus poussé était nécessaire, associant un traitement physique et chimique, une désinfection et, dans 25 % des cas, un traitement dit d’affinage (avec des charbons actifs ou des membranes) permettant d’éliminer les matières organiques résiduelles et d’améliorer les qualités organoleptiques de l’eau (sa saveur, son odeur, sa limpidité).

Les eaux brutes contiennent en effet divers éléments polluants qu’il est nécessaire d’éliminer. La matière organique, provenant de la décomposition des matières vivantes (déjections animales, animaux morts ou fragments de végétaux se décomposant…), constitue la principale pollution présente dans l’eau ; on cherche à l’éliminer avant les pollutions plus spécifiques, comme les pesticides ou des pathogènes.

Éliminer d’abord les plus gros déchets

L’eau passe tout d’abord à travers des grilles (on parle de « dégrillage ») afin d’enlever les plus gros déchets. Elle subit ensuite un tamisage permettant d’éliminer les déchets plus petits, comme le sable.

Puis, une étape de coagulation/floculation a lieu, permettant grâce à l’ajout d’un produit coagulant de créer des flocs, c’est-à-dire des regroupements de matière en suspension qui vont ensuite chuter grâce à leur poids et être éliminés dans les boues.

Ces boues, qui correspondent à la partie solide produite lors du traitement, sont principalement utilisées en agriculture comme amendement agricole par épandage.

Traiter ensuite les particules invisibles

Une filtration sur charbon actif ou sur sable a ensuite lieu afin de supprimer les particules invisibles à l’œil nu pouvant encore être présentes. Dans certains cas, des membranes, agissant comme un filtre spécifique laissant passer l’eau et retenant les solides en suspension et autres substances, peuvent être utilisées en remplacement du charbon actif.

Seules les membranes conformes à l’arrêté du 22 juin 2012, qui garantit leur innocuité et notamment la conformité du matériau, peuvent être utilisées dans le cadre de la production d’eau destinée à la consommation humaine.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Une étape de désinfection a ensuite lieu afin d’éliminer les micro-organismes pathogènes, souvent via l’ajout d’ozone. Un traitement d’affinage (adsorption sur charbon actif) peut ensuite être présent afin d’éliminer la matière organique résiduelle et d’améliorer la qualité organoleptique de l’eau.

Pour finir, du chlore est ajouté pour son effet rémanent, celui-ci ayant un effet désinfectant qui dure dans le temps, permettant le maintien d’une eau d’excellente qualité lors de son stockage dans des réservoirs (châteaux d’eau) et jusqu’à sa distribution.

Concernant cette étape de chloration, utilisée en France depuis plus d’un siècle pour son effet désinfectant et rémanent, elle a vu depuis 2003 son utilisation étendue à la majorité des réseaux d’eau du territoire français ; cela fait suite à une demande des autorités pour protéger ces réseaux de potentielles attaques terroristes : en cas de pollution intentionnelle, l’agent toxique ou biologique introduit serait ainsi détruit par l’action du chlore.

Simultanément, une baisse anormale et rapide du niveau de chlore résultant d’une action malveillante dans le réseau d’eau permettrait à l’exploitant de détecter cette éventuelle intrusion.

Quels effets sur la santé humaine ?

Des sels d’aluminium, parmi lesquels le sulfate d’alumine, sont parfois utilisés dans le traitement des eaux de surface comme agent floculant et clarifiant pour éliminer la matière organique dissoute et les particules en suspension. Il arrive occasionnellement que le pH de l’eau soit mal maîtrisé pendant cette étape et conduise à des fuites d’aluminium dans l’eau du robinet.

Des études chez les humains ont mis en évidence des liens possibles entre l’ingestion d’aluminium et des maladies du système nerveux.

Dans un rapport de 2003, l’Anses indiquait à ce sujet que les données épidémiologiques et physiologiques disponibles ne permettaient pas d’attribuer un rôle étiologique à l’aluminium dans la maladie d’Alzheimer. En outre, la part de l’exposition à l’aluminium par l’eau de boisson constitue probablement moins de 5 % des apports quotidiens d’aluminium par voie alimentaire de la population française.

L’étape d’ozonation, utilisée pour éliminer les micro-organismes et agir sur les micropolluants comme les produits pharmaceutiques, conduit à la production de sous-produits potentiellement toxiques. On pense par exemple aux bromates, qui se forment au cours de l’ozonation d’eaux contenant des bromures, identifiés comme probablement cancérigènes.

Le cas du chlore

L’utilisation de chlore dans le traitement des eaux peut aussi engendrer la production de sous-produits soupçonnés cancérigènes, comme les trihalométhanes, les acides haloacétiques ou encore les haloacétonitriles.

Certains d’entre eux sont réglementés depuis plusieurs années au niveau du point d’usage, c’est-à-dire au robinet, comme les trihalométhanes.

Leur fréquence de contrôle varie d’une fois tous les 10 ans pour les plus petites stations de production à une fois par mois pour les plus grosses.

Récemment, la directive européenne 2020/2184 a imposé le suivi d’ici 2026 des chlorites, chlorates ou acides haloacétiques dans le cas de traitement de désinfection pouvant entraîner leur production, notamment lors de l’utilisation de dioxyde de chlore.

Des modèles ont été développés afin d’anticiper la production de ces composés et de mieux comprendre comment les limiter voire les éliminer totalement, mais la complexité des mécanismes mis en jeu et le nombre de variables à prendre en compte sont tels qu’ils présentent encore de grandes incertitudes.

Dans l’attente de plus de connaissances sur ce sujet, le maître mot est de limiter au maximum la quantité de chlore résiduel (tout en en gardant suffisamment pour assurer une eau de très bonne qualité jusqu’au point de distribution) afin d’éviter l’apparition de ces sous-produits.

Le problème des canalisations

En sortie de la station de potabilisation, en ajoutant si besoin un nouveau traitement, l’objectif sera d’obtenir une eau voisine de l’équilibre calcocarbonique, c’est-à-dire non agressive et très légèrement entartrante.

Une eau entartrante aura en effet pour résultat de faire précipiter le calcaire et ainsi de provoquer l’entartrage des appareils ménagers. Une eau agressive pourra corroder les métaux constitutifs des canalisations et ainsi engendrer une contamination, en plomb par exemple, lors du transport de l’eau. Ce phénomène a surtout lieu lorsque l’eau stagne dans les canalisations.

Les canalisations en plomb des maisons ou immeubles anciens sont une des sources de contamination possibles, à travers l’eau du robinet. Shutterstock

Concernant le plomb, la solution pour l’éliminer définitivement dans l’eau consiste à supprimer les canalisations en plomb. Les collectivités publiques ont lancé des programmes de remplacement des branchements publics en plomb afin de délivrer une eau conforme, respectant la directive européenne 98/83/CE (du 3 novembre 1998, revue en 2013) qui fixe une teneur maximale en plomb au niveau des robinets à 10 µg/l.

Ouvrir le robinet et obtenir de l’eau potable, un geste quotidien apparemment anodin qui réclame toute une série de traitements en amont.

Julie Mendret, Maître de conférences, HDR, Université de Montpellier et Alice Schmitt, Post-doctorante en génie des procédés, Institut européen des membranes, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Pourquoi il est grand temps de quitter les villes

Guillaume Faburel, Université Lumière Lyon 2

Si le processus d’urbanisation globalisée ne semble pas vouloir marquer le pas, le géographe Guillaume Faburel nous invite à considérer le débranchement urbain dans son texte « Vider les villes ? », dont nous vous proposons des extraits. Retrouvez cette réflexion et bien d’autres dans le livre collectif « Écologies. Le vivant et le social », publié aux éditions de la Découverte.


Vider les villes ? Voilà bien a priori une hérésie. La ville, c’est le progrès et l’émancipation. Tous les grands moments de notre civilisation y sont chevillés, des cités-États aux villes-monde et métropoles d’aujourd’hui. Pourquoi diable vouloir les vider ?

Simplement parce que tous les mois à travers le monde l’équivalent d’une ville comme New York sort de terre. À moins de croire dans le solutionnisme technologique et le durabilisme des transitions, il est temps de rouvrir une option envisagée dès les années 1970 : la désurbanisation de nos sociétés. Voici peut-être l’unique solution face à la dévastation écologique. Un seul « s » sépare demeure et démesure, celui de notre propre survie.

Aujourd’hui, 58 % de la population mondiale est urbaine, soit près de 4,4 milliards d’habitants (dont presque 40 % résidant aux États-Unis, en Europe et en Chine), contre 751 millions en 1950. Cette proportion est même annoncée à 70 % en 2050 par l’Organisation des Nations unies (ONU).

[…]

Avec plus de vingt millions d’habitants, Mumbaï a vu sa superficie bâtie presque doubler entre 1991 et 2018, perdant ainsi 40 % de son couvert végétal. Dhaka, dont la population de l’agglomération excède aussi vingt millions d’habitants, a vu disparaître 55 % des zones cultivées, 47 % des zones humides et 38 % du couvert végétal entre 1960 et 2005. Pendant que la superficie bâtie augmentait de 134 %.

Vue aérienne de Dacca, capitale du Bangladesh, la ville la plus densément peuplée au monde, avec 43 797 habitants au km carré. Elle manque d’espaces verts et l’air y est irrespirable pour ses 15 millions d’habitants. Shutterstock

Plus près de nous, le Grand Paris est le chantier d’aménagement le plus important de l’histoire de la capitale depuis le Second Empire (XIXe siècle), avec pas moins de deux cents kilomètres de lignes de métro supplémentaires, cent soixante kilomètres de tunnels à percer, soixante-huit gares à construire, quatre-vingt mille logements par an à sortir de terre.

En France d’ailleurs, la population urbaine a augmenté de 20 % entre 1960 et 2018, pour officiellement dépasser les 80 % de la population hexagonale en 2020, ramenés toutefois à 67 % en ne tenant plus uniquement compte de l’influence des villes mais aussi de la taille des peuplements (critère de densité des constructions). Près de la moitié vit dans l’une des vingt-deux grandes villes (dont quatre millionnaires en nombre d’habitants), à ce jour officiellement dénommées métropoles. Et, depuis ces centres métropolitains jusqu’aux couronnes périurbaines, comme dans un bon tiers des périmètres de villes moyennes et d’inter-communalités (elles-mêmes grossissantes par volontarisme réglementaire), l’urbanisation croît deux fois plus vite en surface qu’en population (et même trois fois dans les années 1990, soit annuellement la taille de Marseille, un département tous les dix ans, la Région Provence-Alpes-Côte d’Azur en cinquante ans).


Pour suivre au plus près les questions environnementales, retrouvez chaque jeudi notre newsletter thématique « Ici la Terre ». Au programme, un mini-dossier, une sélection de nos articles les plus récents, des extraits d’ouvrages et des contenus en provenance de notre réseau international. Abonnez-vous dès aujourd’hui.


La métropolisation du monde

Les foyers premiers ainsi que le modèle principal de cette croissance sont assurés par les grandes agglomérations, au premier chef les sept villes-monde (New York, Hongkong, Londres, Paris, Tokyo, Singapour et Séoul) et leurs épigones, cent vingt métropoles internationales. Elles représentent en cumul 12 % de la population mondiale pour 48 % du Produit Intérieur Brut (PIB) mondial. Il y a donc du capital à fixer et de la « richesse » à produire… À condition de continuer à grossir. Tokyo a déjà un PIB supérieur à celui du Canada, Paris à celui de la Suisse…

Engagée depuis une quarantaine d’années dans les pays occidentaux, la métropolisation représente le stade néolibéral de l’économie mondialisée : polarisation urbaine des nouvelles activités dites postindustrielles et conversion rapide des pouvoirs métropolitains aux logiques de firme marchande.

Elle incarne l’avantage acquis ces dernières décennies par les grandes villes : articulation des fonctions de commandement (ex : directions d’entreprises) et de communication (ex : aéroports, interconnexions ferroviaires, etc.), polarisation des marchés financiers (ex : places boursières et organismes bancaires), des marchés d’emplois de « haut niveau » – que l’Insee qualifie de métropolitains depuis 2002 (conception-recherche et prestations intellectuelles, commerce interentreprises et gestion managériale, culture et loisirs) ou encore de marchés segmentés de consommation (tourisme, art, technologies…).

[…]

Une empreinte environnementale et sanitaire déplorable

Or, occupant seulement 2 % de la surface de la Terre, le fait urbain décrit produit 70 % des déchets, émet 75 % des émissions de gaz à effet de serre (GES), consomme 78 % de l’énergie et émet plus 90 % de l’ensemble des polluants émis dans l’air pour, souvenons-nous, 58 % de la population mondiale.

Pour les seuls GES, vingt-cinq des cent soixante-sept plus grandes villes du monde sont responsables de près de la moitié des émissions urbaines de CO2 – la fabrication du ciment représentant près de 10 % des émissions mondiales, en augmentation de 80 % en dix ans. À ce jour, 40 % de la population urbaine mondiale vit dans des villes où l’exposition à la chaleur extrême a triplé sur les trente-cinq dernières années.

Plusieurs mégapoles s’enfoncent annuellement de plusieurs centimètres sous le poids de la densité des matériaux de construction et du pompage des nappes phréatiques (Mexico, Téhéran, Nairobi, Djakarta…). La prévalence des maladies dites de civilisation est nettement plus importante dans les grandes villes, responsables de quarante et un millions de décès annuels à travers le monde (cancers, maladies cardiovasculaires et pulmonaires, diabète et obésité, troubles psychiques et maladies mentales).

Enfin, selon le Fonds monétaire international, à l’horizon de la fin du siècle, 74 % de la population mondiale (annoncée en 2100 urbaine à 80 %) vivra des canicules mortelles plus de vingt jours par an. Un point de comparaison : la canicule de 2003 en France, 15 000 morts, en dix-huit jours. D’ailleurs, en France, les pollutions atmosphériques des grandes villes sont responsables de 50 000 morts annuellement.

Le secteur du bâtiment-travaux publics (BTP), toutes constructions confondues (mais à 90 % dans les aires définies comme urbaines), représente 46 % de la consommation énergétique, 40 % de notre production de déchets et 25 % des émissions de GES. L’autonomie alimentaire des cent premières villes est de trois jours (98 % d’alimentation importée) et Paris, par tous ses hectares nécessaires, a une empreinte écologique trois cent treize fois plus lourde que sa propre superficie.

[…]

Si l’on croise les données de nos impacts écologiques avec celles des limites planétaires, on constate que l’empreinte moyenne de chaque Français va devoir être divisée par quatre à six pour prétendre à la neutralité carbone à horizon de 2050. Pour ce faire, loin du technosolutionnisme ambiant et du durabilisme du verdissement, l’autonomie, comprise comme autosubsistance et autogestion, est le seul moyen de se figurer l’ensemble de nos pressions et de les contenir par l’autodétermination des besoins, au plus près des ressources et de leurs écosystèmes. Ceci, sans pour autant négliger nos interdépendances sociales et quelques-unes de nos libertés.

Une pancarte sur une statue indique « Grand Péril Express » à côté d’un drapeau du mouvement Extinction-Rebellion lors d’une manifestation contre les projets d’urbanisation des terres agricoles en Île-de-France, devant l’Hôtel de Ville de Paris, le 10 octobre 2021. Thomas Samson/AFP

Or pour faire autonomie, toute ville devrait produire 100 % de son énergie, qui plus est renouvelable (or, à ce jour, Lyon, Bordeaux ou Rennes n’en produisent par exemple que 7 % à 8 % , non renouvelables), remettre en pleine terre entre 50 % et 60 % des sols pour la production vivrière et le respect du cycle de l’eau (à ce jour, entre 1 % et 1,5 % dans les villes labellisées Métropoles françaises), ou encore restituer aux écosystèmes au moins 15 % des sols urbanisés pour la biodiversité. Tout ceci est infaisable morphologiquement et, quoi qu’il en soit, impensable dans le cadre d’une ville devenue médiation première du capital.

Nous n’avons en fait pas d’autre choix que de nous affranchir des grandes centralités et de leurs polarités, comme certains espaces périurbains commencent à le faire ; en déconcentrant et en relocalisant, en décentralisant, sans omettre de décoloniser quelques habitudes et modes de vie.

Mais comment passer de l’ère de taire l’inconséquence de nos écologies urbaines à l’âge du faire des géographies posturbaines, sans pour autant rétrécir la société par le jeu des identités et le retour de quelques barbelés ? Quelles sont les conditions d’une désurbanisation sans perte d’altérité, et sans oublier cette fois la communauté biotique ?

Bientôt, le débranchement urbain ?

Cette autre géographie est d’ores et déjà en construction, à bas bruit. Les espaces plus ouverts, ceux des campagnes, offrent d’autres possibilités, sous condition de révision de quelques comportements, particulièrement ceux liés à nos mobilités, connectivités et divertissements. En France, cela correspond au foisonnement d’alternatives au sein des espaces dessinés par les treize mille petites villes et petites villes de proximité, bourgs et villages centre, auxquels il faut ajouter les milliers d’autres villages, hameaux et lieux-dit : néoruralités qui connaissent leur septième vague d’installation, néopaysanneries dynamiques, zones à défendre, communautés existentielles/intentionnelles, écolieux et fermes sociales…

Permaculture et autosubsistance vivrière, chantiers participatifs et autoconstruction bioclimatique, épiceries sociales ambulantes et médiathèques villageoises itinérantes, fêtes locales et savoirs vernaculaires… sont clairement ici en ligne de mire. Et l’on pourrait imaginer des foires locales aux logements, puisque près de trois millions sont vacants dans les périphéries, alors que ce secteur est prétendument en crise. Et, toute cette effervescence ne concerne pas moins de 30 % du territoire hexagonal.

Là serait la raison du débranchement urbain : cesser d’être les agents involontaires des méga-machines urbaines en recouvrant de la puissance d’agir, non plus pour faire masse contre la nature mais pour faire corps avec le vivant. Le triptyque habiter la terre, coopérer par le faire, autogérer de manière solidaire peut constituer la matrice d’une société écologique posturbaine. À condition de vider les villes, les grandes, et de cheminer enfin vers le suffisant.

Guillaume Faburel, Professeur, chercheur à l'UMR Triangle, Université Lumière Lyon 2

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Par le

Indice de réparabilité : deux ans après sa mise en place, un premier bilan critique

K I L I A N / Unsplash, CC BY-NC-SA
Nicolas Roisin, Université catholique de Louvain (UCLouvain); Jean-Pierre Raskin, Université catholique de Louvain (UCLouvain); Sébastien Toussaint, Université catholique de Louvain (UCLouvain) et Valerie Swaen, Université catholique de Louvain (UCLouvain)

Un plan d’action pour l’économie circulaire a été voté par le Parlement européen en février 2021 dans le but d’atteindre une économie neutre en carbone, durable, non toxique et entièrement circulaire d’ici à 2050. Une des priorités de ce plan – qui s’inscrit dans une stratégie initiée par de nombreuses directives et décrets du Parlement européen, notamment la directive 2012/19/UE – est de réduire les déchets d’équipements électroniques et électriques.

D’après le rapport « The Global E-waste Monitor 2020 », la quantité de déchets liée aux équipements électriques et électroniques (EEE) a bondi de 44,4 Mt en 2014 à 53,6 Mt en 2019 (soit 7,3 kg par habitant) et devrait atteindre 74,7 Mt d’ici à 2030. Soit une hausse de 21 % en 5 ans et de presque 70 % en 15 ans. Parmi les causes avancées de cette augmentation, la consommation grandissante d’EEE, leur court temps de vie et le manque de solutions pour les réparer.

L’indice de réparabilité, c’est quoi et pourquoi ?

L’initiative française d’indice de réparabilité déployé le 1?? janvier 2021 entend répondre à ces défis en sensibilisant les consommateurs à la réparation et en incitant les fabricants à l’écoconception.

Affiché sur les produits, l’indice prend la forme d’une note sur 10 et d’un pictogramme coloré dépendant du score obtenu – rouge pour les équipements ayant une note inférieure ou égale à 1,9 ; orange, jaune, vert clair et vert foncé, jusque 3,9, 5,9, 7,9 et 10, respectivement.

Illustration de l’indice de réparabilité. Fourni par l'auteur

Afin de calculer cet indice, cinq critères sont utilisés : la disponibilité de la documentation technique ; la démontabilité et accès, outils, fixations ; la disponibilité des pièces détachées ; le prix des pièces détachées ; et des critères spécifiques à la catégorie du produit.

Le score de 700 équipements analysé

En mai 2022, nous avons analysé les scores de plus de 700 équipements électroniques dans trois catégories de produits : les téléviseurs, les smartphones et les ordinateurs portables, qui sont les appareils électroniques avec le potentiel de réparabilité le plus important comparé, par exemple, aux lave-linge qui atteignent un bien meilleur taux de réparation – bien qu’améliorable également. Les données (prix de vente, marque, modèle, indice de réparabilité, score de chaque critère et sous-critère) ont été récoltées à partir du site Internet de la société Darty.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Cette analyse nous a permis de constater que, malgré l’obligation depuis le 1er janvier 2021 de rendre disponible le score lors de la vente de l’équipement, certaines marques n’ont pas encore fourni celui de leurs produits, et que certains arborent un score unique pour toute la gamme de produits. La grille de calcul de score est ainsi remplie de façon globale sans inclure les spécificités de chaque bien, ce qui pose question compte tenu de la faible standardisation des pièces détachées.

La majorité des scores obtenus par les marques pour leurs différents produits sont en outre supérieurs à 5, ce qui montre un manque d’efficacité dans l’utilisation de l’échelle complète et de sanction en cas de mauvais score sur un ou plusieurs critères. L’utilisation d’une moyenne arithmétique pour calculer l’indice final conduit en effet à ce que de bons scores sur certains critères compensent les mauvais scores sur d’autres.

Les smartphones et ordinateurs portables obtiennent ainsi de bons indices de réparabilité malgré la faible disponibilité des pièces détachées, qui rend souvent leur réparation impossible.

Encore des freins à lever

À ce jour, la politique en matière de pièces détachées est un élément clé dans la réparation des appareils défectueux : les grandes disparités observées dans les scores finaux des appareils proviennent en premier lieu de la politique des marques en matière de pièces détachées.

Une documentation claire et accessible, indispensable aux réparateurs, est par ailleurs encore trop souvent difficile à obtenir auprès de certaines marques. La pédagogie dans le milieu de la réparation est majoritairement le fait des particuliers et du monde associatif.

Il est enfin essentiel que les fabricants réduisent au maximum l’usage de colle et soudure dans leurs produits, principaux freins à la démontabilité des objets. Plus généralement, la miniaturisation et la compacité du design de ces équipements complexifient le processus de réparation.

D’après un rapport de l’association Halte à l’obsolescence programmée, d’autres obstacles ne sont pas pris en compte dans l’indice, tels que la sérialisation et la compatibilité des pièces détachées. Les réparateurs indépendants ont par exemple constaté une hausse des pièces irremplaçables car associées à un appareil spécifique via leur numéro de série.

Tableau récapitulatif des moyennes obtenues pour l’indice de réparabilité et ses critères.

Un progrès réel… à affiner

Soyons clairs, l’affichage de l’indice de réparabilité représente un réel progrès pour améliorer nos habitudes de consommation. Des améliorations sont néanmoins possibles en matière de calcul, de transparence, et de contrôle de l’indice, afin d’augmenter son impact.

Comme l’illustrent nos analyses, la grille actuelle ne permet pas d’identifier strictement les produits difficilement réparables, puisqu’un indice assez élevé peut être obtenu par un équipement électronique qui dispose d’une lacune forte en la matière.

D’autres méthodes de calcul pourraient être utilisées, comme une moyenne géométrique afin qu’une note proche de zéro sur un critère réduise considérablement le score final de l’indice. Cette solution aurait le mérite de pousser les fabricants à avoir des scores corrects sur tous les critères, et le score refléterait mieux la réparabilité « réelle » de l’équipement.

Une meilleure transparence des fabricants

Un second élément concerne la transparence du processus d’encodage des scores des différents critères. Les constructeurs adoptent des pratiques différentes, certains rapportant une même note pour une gamme de produits, alors que d’autres fixent une note spécifique par produit.

Il semble donc nécessaire que les fabricants fournissent en toute transparence la grille de calcul complète et détaillée ainsi que les engagements sur lesquels ils ont fondé leurs calculs – en particulier les périodes de disponibilité de leurs pièces et leurs conditions d’accès. Cela les obligerait à remplir avec sérieux cette liste et permettrait aux autres acteurs (publics et privés) d’être critiques par rapport aux notes obtenues par les appareils.

Notons enfin qu’un véritable contrôle de l’indice de réparabilité par le marché est difficilement réalisable. Certaines informations sont peu accessibles ; les engagements sur la disponibilité des pièces de rechange dans le temps ne sont presque jamais spécifiés ; les catalogues de pièces détachées sont rarement disponibles.

Et la vérification des déclarations des fabricants (par exemple concernant l’accès aux pièces détachées) requiert des interactions avec l’ensemble des acteurs concernés.

Impliquer fabricants, consommateurs et acheteurs

L’indice de réparabilité implique en effet une pluralité d’acteurs : il guide à la fois les fabricants dans leurs choix de design, les réparateurs dans l’anticipation des étapes clés de leurs réparations et les acheteurs dans leur souhait d’adopter une consommation responsable et durable. Dans cette optique, la charge de construire l’indice ne peut incomber uniquement aux fabricants et doit donner lieu à des discussions avec les parties prenantes.

L’indice associé à un produit ne devrait en outre pas être une grandeur statique établie de manière définitive à la sortie d’usine – la 1re étape de son cycle de vie où, par ailleurs, sa réparabilité n’a pas été formellement testée par des consommateurs ou des réparateurs – mais une grandeur adaptative établie à différents stades.

Une telle définition responsabilisant les réparateurs et les consommateurs en plus des fabricants contribuerait à ce que l’indice de réparabilité ne soit plus perçu par ces derniers comme une contrainte, mais bien comme un outil alimentant une analyse réflexive sur la conception de leurs produits.

Nicolas Roisin, Ph.D. Student, Université catholique de Louvain (UCLouvain); Jean-Pierre Raskin, Professeur en génie électrique, Université catholique de Louvain (UCLouvain); Sébastien Toussaint, Research associate, Université catholique de Louvain (UCLouvain) et Valerie Swaen, Professeure ordinaire, présidente du Louvain Research Institute in Management and Organizations (LouRIM), Université catholique de Louvain (UCLouvain)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.