Grand débat : « le retour au texte est seul garant de l’interprétation »

Politique

Dans une tribune au « Monde », les spécialistes du langage Christine Barats, Emilie Née et Marie Véniard rappellent que la clé du grand débat national sera bien d’analyser les discours et pas de chercher à leur faire dire ce que l’on veut entendre.

Tribune. Cahiers de doléances, réponses à des questions ouvertes, transcriptions ou comptes rendus de réunion… avec l’organisation du grand débat, l’exécutif a généré une « pluie de données ». Parole réjouissante, salutaire, mais dont le foisonnement nécessite le recours à un traitement quantitatif informatisé. Comment ne pas s’interroger sur le type de résultats obtenus dans un temps extrêmement court et sur la portée des interprétations qui seront immédiatement proposées ? Indépendamment de son apport aux débats publics, nous mesurons les limites d’une telle entreprise, nous qui sommes pourtant des chercheuses ayant recours à une des méthodes quantitatives d’analyse des données textuelles, la lexicométrie.

Il ne faut pas perdre de vue que l’informatique n’est qu’un outil au service d’une démarche interprétative. La discipline d’analyse quantitative des textes a développé des fonctionnalités statistiques qui ne sont que la face visible d’une démarche où prime une méthodologie encadrant l’interprétation. Ces savoir-faire sont d’ailleurs plus longs à acquérir que le maniement du logiciel, pour lequel les formations excèdent rarement la quinzaine d’heures. La machine, c’est sa fonction, sort toujours des résultats, quelle que soit leur qualité. Mais ces résultats doivent être questionnés, et les spécialistes de lexicométrie insistent sur « le retour au texte », seul garant de l’interprétation.

Si on parle d’analyse outillée ou assistée par ordinateur, c’est bien que l’ordinateur ne fait pas tout

C’est le garde-fou méthodologique qui permet à l’ordinateur de rester un outil. Concrètement, cela signifie que le résultat statistique, sous la forme, par exemple, d’une liste de mots, est mis en perspective avec les textes produits pour en vérifier la justesse. Si on parle d’analyse outillée ou assistée par ordinateur, c’est bien que l’ordinateur ne fait pas tout. Pour observer, compter et confronter ce qui est comparable, toute chercheuse en lexicométrie consacre un temps long à la collecte et à la préparation des données parce que la situation de communication et le dispositif mobilisé (questionnaire, cahier, débat) conditionnent les prises de parole.

Un traitement attentif et humain

L’accumulation d’énoncés issus de situations aussi disparates implique de faire des choix, de tenir compte des dispositifs afin de ne pas fabriquer des ensembles de données artefactuels. De plus, et au sein d’un même dispositif, les données sont hétérogènes et il est indispensable à nos yeux de penser cette hétérogénéité avant de procéder à une analyse automatique. Posées dans un contexte politique de tension et de mouvement social, les questions ouvertes encouragent par exemple non pas seulement la réponse, mais aussi la réaction, l’interpellation, l’expression de la colère.


Lire la suite : Grand débat : « le retour au texte est seul garant de l’interprétation »


Facebook Pin It

Articles en Relation

Loi sur les influenceurs : des enjeux qui vont au-delà de l'influence commercial... GaudiLab Loi sur les influenceurs : des enjeux qui vont au-delà de l'influence commerciale GaudiLab ...
La crise du Journal du dimanche et ce qu’elle dit de l’avenir de la presse franç... L'équipe du Journal du dimanche s'oppose à l'arrivée comme directeur de la rédaction de Geoffroy Lejeune, connu pour porter une idéologie d'extrême-dr...
Réforme du RSA : quels risques pour notre modèle de protection sociale ? Le projet de réforme du RSA semble puiser son inspiration dans la distinction entre « Welfare state » et « Workfare state » venue des milieux conserva...

ACTUALITÉS SHOPPING IZIVA