Retour sur les enquêtes web d’étudiants en sociologie

Résumé de la communication: 

Comment mobiliser un crawler comme un moyen complémentaire de mener une enquête sociologique ? Nous proposons quelques éléments de réponse par un retour d’expérience sur le travail d’étudiants en sociologie confrontés à cette question.

 

Depuis trois ans nous enseignons à des étudiants comment utiliser un crawler comme moyen d’enquête sociologique, au sein du Master Sociologie d’Enquête à l’Université Paris Descartes, sous la direction d’Olivier Martin et Cécile Lefèvre. Cette expérimentation pédagogique est essentiellement pratique et se concentre sur les spécificités du web comme terrain d’enquête. Les vingt-quatre rapports rendus en trois ans permettent d’observer de quoi se compose une enquête web outillée par les méthodes numériques.

 

L’outil central du cours est le crawler Hyphe, qui permet d’utiliser les documents hypertextes comme matériau de recherche. Ces documents contiennent de nombreuses traces d'activité de communication de nature, d'objets et d'acteurs variés. Pour l’étudiant équipé d’un crawler, le web apparaît comme un espace documentaire dont l'étendue amène des opportunités inédites et dont l'hétérogénéité porte des enjeux complexes. Au cœur de la démarche se trouve la création d’une collection basée sur la nature hypertextuelle du Web, ce que nous appelons « curation de corpus ». C’est par ce travail que l’étudiant se confronte aux contenus et stabilise des critères empiriques de sélection des ressources qui alimenteront la dimension qualitative de son enquête. La curation du corpus et la construction d’une problématique se font donc dans un même mouvement.

 

Le logiciel Gephi est utilisé pour visualiser et analyser les réseaux hypertextes obtenus. Il permet de détecter des structures topologiques comme des groupes de ressources très liées entre elles, des ressources en situation de centralité ou de pont. L’analyse à proprement parler vise à mettre en relation les propriétés des contenus avec la structure hypertextuelle. Les étudiants cherchent par exemple à expliquer pourquoi certaines ressources s’agrègent en « clusters ». Cette opération permet de faire émerger des questions sur la présence ou l’absence de thématiques, sur les motifs de connexion ou d’opposition, et sur les acteurs clé.

 

Les domaines choisis par les étudiants, de la psychiatrie à la pâtisserie en passant par le féminisme, témoignent de la variété des sous-graphes du web, tant par la taille que par la structure. La plupart des rapports sont construits autour d’une analyse des sous-communautés, de leur taille et de leurs relations, bien que certaines enquêtes soient essentiellement qualitatives. Dans ce dernier cas, l’outil Hyphe a surtout joué un rôle de guide dans la confrontation empirique avec le terrain. La plupart des travaux comportent d’ailleurs un mélange plus ou moins bien articulé d’éléments qualitatifs et quantitatifs. Certains font également usage de protocoles spécifiques permettant d’apporter des éléments de réponse à une question de recherche précise ayant émergé pendant le semestre.

 

Dans cette communication nous proposons de montrer comment les étudiants construisent leur argumentation en s’appuyant d’une part sur la topologie des réseaux et d’autre part sur leur lecture empirique des contenus. Nous nous intéresserons à la fois à ce qui leur semble significatif dans les images de réseaux et dans les ressources elles-mêmes, et à la façon dont ils présentent leurs découvertes. Nous nous demanderons en particulier si les algorithmes et les visualisations sont perçues comme réalistes, et au statut des instruments dans l’enquête, du point de vue des étudiants.

Mots-clés: 
web
crawler
méthodes numériques
analyse de réseaux