Communautés de pratique
Des écosystèmes pour l'apprentissage, le travail et l'innovation.
Méthodes d’étude des communautés virtuelles
Categories: Fiches de lecture

De Béatrice Pudelko, Amaury Daele, France Henri (chap.11 – pp. 127-155)

Intro intéressante : Les auteurs se positionnent dans le champ de l’éducation et écartent ainsi tout débat relatif aux concepts de communautés véhiculés par les sociologues et ethnologues…leur but : ne pas questionner l’existence de communautés virtuelles mais les relations entre l’activité des membres et les apprentissages réalisés.

Les différentes méthodes sont décrites en sa basant sur la théorie développée par Wenger.

Méthodes de recueil et d’analyse des données sur les communautés virtuelles

Le recueil des données

L’observation systématique : posture d’observateur externe de l’activité, avec usage d’une grille d’observation systématique du comportement verbal écrit ou relevant de la réification. Elle peut constituer une étape préalable à l’observation participante (pour familiarisation mécanismes et règles). Les comportements de non-participation (marginal et périphérique) induisent des expériences différentes en termes qualitatifs (difficiles à observer, distinction éventuelle par traçage des connexions). Pour la réification, observation temporelle de la création d’objets et leur utilisation par les membres. Les communications asynchrones sont recueillies dans leur intégralité, celles synchrones « à chaud » (« Une lecture en différé ne saurait remplacer l’expérience de l’interaction et de son rythme, […], une grande partie de ce qui est le plus intéressant réside dans l’absence d’information, le silence et les pauses entre les mots et les phrases » Latzko-Toth, 1998)

L’observation participante comme étape postérieure (après s’être familiarisé avec les règles et les mécanismes de communication), possibilité d’être invisible à titre de chercheur ou de participant, ou combiner les 2 statuts dans une recherche-action. But de l’observation participante : « Comprendre en profondeur le fonctionnement de la communauté ». Si action, 2 postures dans le monde virtuel : se conformer aux normes ou provoquer pour explorer les opinions, les valeurs dominantes ou dominées, les normes sociales ou langagières (Voir méthodes d’enquêtes qualit. Poutrain et Héas, 2003).

Bélisle (2001) souligne 2 difficultés : La subjectivité du chercheur et la question du « don ». Elle e entrepris un « audit de subjectivité » pour la mettre en évidence (ex. parcours identique). Quant au cycle du don, elle s’interroge sur ce qu’elle doit rendre aux participants (travaux ou participation?)

Finalement, le chercheur peut combiner 2 méthodes (observation systématique et participante) et 2 modalités (tout à distance et rencontres face à face)

L’entretien :

Difficile avec les CoPV…si possible entretiens en face à face, semi-dirigés ou non dirigés (voir Latzko ci-dessus). Entretiens par courriel éventuellement (repérer les esquives et contournements aux questions posées et non plus les silences et les dénégations, + un récit de vie ou un journal intime – Voir Poutrain et Héas, 2003, p6).

Le questionnaire :

Administrés à l’étape préliminaire ou finale de la recherche. Subsitue souvent aux entretiens pour raisons de faisabilité, d’obtention de données qualitatives ET quantitatives, d’automatisation par Internet. Pour un Q Web, 3 formes de sélection des participants (Nosek, Banaji et greenvald, 2002) : accessibilité ouverte, spécifique ou sur invitation. A cela se rajoute l’anonymat ou non. Sans anonymat, moins de réponses mais permet d’élaborer le profil des non-répondants ou de les relancer.

La collecte des traces d’activité :

> Recueil de données verbales et traces non verbales. L’échange verbal : Indicateur de l’activité ou activité elle-même ? Les données recueillies sont dépendantes des dispositifs technologiques.
> D’autres informations peuvent être extraites via règlements officiels, listes, statistiques, albums photos, CR…
> Les modalités communicationnelles sont diverses (liens hypertextes, sons, images, smileys…L’intégration de données multimodales est encore une question de recherche.)
> Des logiciels peuvent réaliser un traitement quantitatif des discussions (ex. Sphinx plus)

L’analyse des données

Données écrites principalement , donc analyse de contenu majoritairement (entretiens, échanges, documents écrits). Voir recherches sur l’analyse des CMO (contenus médiés par ordinateur) pour voir les apports et limites.

L’analyse porte sur les contenus manifestes et/ou latents. Un contenu manifeste concerne des catégories formelles, syntaxiques (propositions, déictiques, connecteurs), lexicales (mots), sémantiques (objectivement répérables : jargon, formules de politesse…). Un contenu latent nécessite un codage des unités et une agrégation. 4 étapes :

  1. Consitution d’un corpus,
  2. Création d’une grille d’analyse,
  3. Codage, comportant des procédures de vérification de la validité et de la fidélité de l’analyse,
  4. Analyse des résultats pour décrire les variables ciblées et les relations entre elles.

Constitution du corpus d’analyse

Panorama – Avantages/Désavantages des techniques selon Herring (2004). (Voir autre article ici).

Type d’échantillonnage Avantages Désavantage
Au hasard Représentativité, potentiel de généralisation Perte de contexte et de cohérence, nécessité de disposer d’un enregistrement complet des échanges
Par thème (tous les messages dans un fil de discussion donné) Cohérence thématique, un ensemble de données libre d’interférénces dues à d’autres thématiques, une contextualisation acceptable des messages Exclut les autres thématiques ou activités qui peuvent avoir lieu en même temps
Par intervalle de temps Préserve la richesse du contexte, possibilité d’analyse longitudinale Peut tronquerles interactions, et/ou résulter en échantillons très grands
Par phénomène (ex. plaisanteries ou négociation de conflit) Rend possible une analyse en profondeur d’un phénomène Perte de contexte, il faut prendre en compte la distribution dans l’ensemble des messages (pour examiner la fréq d’apparition du phénomène)
Par type d’acteur ou type de groupe Permet la focalisation sur un acteur ou un groupe, utile lors de la comparaison (ex. tuteur vs apprenant, expert vs novice) Perte de contexte (surtout la séquence temporelle des échanges)
Echantillonnage opportuniste Facilité Échantillon non systématique; risque de ne pas convenir aux besoins de l’étude

Tableau 1 (p.137) – Techniques d’échantillonnage de données pour l’analyse de contenu des échanges médiés par ordinateur (adapté de Herring, 2004, p.351)

(p.137) Pour préserver la richesse du contexte, l’échantillonnage devrait représenter les différents types d’activité menées par les participants, ainsi que leur dimension temporelle (d’après Herring, 2004)

La catégorisation et le codage :

Définition à priori . Sinon, émergence durant l’étude exploratoire. Selon L’Ecuyer (1990, chap.2), 3 modèles de construction de grilles d’analyse : Le modèle ouvert (catégories identifiées à partir des données > hypothèses imprécises, recherche exploratoire), fermé (catégories prédéterminées si cadre théorique ou études préalables sur la question > Hypothèses précises qu’on veut infirmer/confirmer), mixte.

« Dans le domaine de l’éducation, la catégorisation sémantique est la + employée, permettant de distinguer des unités de sens ou thèmes (p.138). »

Selon L’Ecuyer (1990), Les catégories d’analyse devraient respecter 8 caractéristiques (p.138-139) :

  1. l’exhaustivité :couverture de l’ensemble du corpus, du phénomène étudié
  2. la cohérence : les énoncés d’une catégorie ont la même orientation de sens,  les énoncés et le titre ont le même sens, les catégories sont définies clairement
  3. l’homogénéité : les énoncés de la catégorie vont tous dans le même sens
  4. la pertinence : catégories en rapport avec les contenu analysés, les objectifs de l’analyse et son cadre théorique
  5. la simplicité : pas d’ambiguïté dans la définition des catégories
  6. l’objectivation : les indicateurs permettant la catégorisation des données sont compris de tous les codeurs de la même manière
  7. la productivité : catégories riches en indices d’inférence et en production d’hypothèses nouvelles
  8. l’exclusivité : les catégories sont mutuellement exclusives (sauf si perte de sens dans l’analyse)

Validation de la catégorisation et du codage :

Catégorisation : Recours à la mesure de la fidélité inter-juges (coeff. d’accord entre codeurs) et intra-juge (coeff. de constance du codage pour un même codeur)

Réplicabilité des résultats, de l’opérationnalisation des variables, de la généralisation des résultats : La grille de codage devrait pouvoir être employée dans d’autres contextes et aboutir aux mêmes résultats. Cependant, à situations comparables, d’après Henri, Pudelko et Nault (2002), « le parti pris optimiste ou critique du chercheur et la réprésentation qu’il se fait quant au potentiel d’apprentissage des forums de discussion influencent grandement l’interprétation des résultats (p.140).

la principale difficulté de ce type d’analyse du contenu provient de son objectif même : rendre compte de la dynamique interactionnelle dans la conversation médiée par ordinateur dans ses relations avec les processus sociocognitifs mis en jeu par les participants

Exemples de méthodes élaborées pour analyser l’apprentissage en relation avec l’interaction dans les forums de discussion

3 méthodes d’analyse dont le but est de saisir la nature des apprentissages réalisés dans l’interaction dans un forum :

1- Henri (1992) : Il relie l’analyse de l’interaction l’analyse de contenu latent. Il s’est appuyé sur un modèle transmissif de la communication (de Bretz, 1983). Il postule que l’unité d’analyse de l’intercation est constitué par le message et qu’il y a véritablement interaction si : A envoie un message à B, B envoie un message à A  (le message est fonction de l’information transmise par A), A envoie une réponse à B (feedback). Critiquée (p.142), sa méthode permet « d’examiner les aspects cognitifs, sociaux ou métacognitifs en recourant  à un découpage du contenu en unités de sens de façon indépendante de l’analyse de l’interaction et à une classification de ces unités dans des catégories préétablies (p.142). » La méthode peut offrir l’avantage de monter un bon niveau « cognitif » ou « métacognitif » malgré la pauvreté de l’interaction (d’après Bullen, 1998); Hara, Bonk et Angel, 2000) mais ne rend pas bien compte du processus d’apprentissage à l’intérieur du groupe (p.142).

2- Howell-Richardson et Mellar (1996), Henri et Rigault (1996) : Perspective interactionniste, méthode basée sur la théorie des actes de langage (Austin, 1970; Searle, 1969). Le découpage des échanges se fait sur la base d’unités constituées par « actes illocutoires » et catégorisées selon (p.142) : le type d’acte (interrogatif, déclaratif, directif), le focus (groupe, tâche ou hors tâche), le destinataire (groupe, individu, sous-groupe), la référence entre les messages (explicite). L’analyse consiste à coder les actes illocutoires selon la grille préétablie puis à calculer les fréquences de chaque type d’acte. Méthode aussi critiquée (subjectivité du codage des actes, unité non pertinente au regard d’une interaction, p.143)

3- Gunawardena et ses collègues (1997) : Perspective socioconstructiviste, l’interaction constitue un processus esentiel de la co-construction de connaissances. L’unité d’analyse est le message. Démarche = découper le contenu du forum en messages, coder chaque message selon une grille d’analyse décrivant 5 phase de co-construction des connaissances : (1) partage/comparaison, (2) dissonnance, (3) négociation/co-construction, (4) test des tentatives de construction, (5) déclaration/application de la connaissance. Chaque message est codé dans une grille prédéfinie selon le type d’opération cognitives et le type de la phase, la fréquence de chaque catégorie est calculée (logiciel d’analyse qualitative). Critiqué par ses auteurs même (p.144).

Nous croyons que la prochaine étape consistera à prendre en compte davantage le contexte social en institutionnel ders échanges et l’activité d’apprentissage dans laquelle ils s’inscrivent (en réf à Barabn Hay et Yamagata-Lynch, 2001) (p.144)

Logiciels d’analyse de contenu

Exemples : Atlas/ti, Nomino ou Nud*ist. 2 groupes selon Boutin (2003) :
– Analyse de contenu : Cartographie des thèmatiques discutées
– Analyse relationnelle : Cartographie des interactions entre participants
> Conversation map adopte une approche mixte : Qui parle de quoi, à qui et quand ?

Comment étudier les communautés virtuelles : Exemples de solutions méthodologiques

Gray (2004) : Etude sur le rôle de la CoPV dans l’apprentissage informel. Il a utilisé 1) le recueil et l’analyse de contenu du forum + chat, 2) un questionnaire avec Q ouvertes et fermées, 3) un entretien en face à face avec participants selon une technique d’échantillonnage, 4) l’observation participante (modérateur du forum), 5) son propre journal de bord.

Nault et Nault (2003) : Etude sur les formes d’interactions entre collègues (collégialité). Analyse de contenu provenant des échanges, 4 formes de collégialité serviront comme grille d’analyse et de classification des messages : Le partage d’anecdotes et et la recherche d’idées – l’aide et l’assistance – le partage – la travail en collaboration.

Gray et Tatar (2004) : Etude de cas sur l’impact de la participation dans une CoPV sur le dvpt professionnel, selon 3 plans (personnel, interpersonnel et communautaire). Essentiellement des entretiens et de l’analyse de contenu des échahges. Sélection de cas « modèles » (12 enseignants) suite à une analyse des conversations privées et publiques d’un chat et un entretien téléphonique.

Kalogiannakis (2004) : Etude de CoPV d’enseignants pour cerner leur nouveau rôle. 14 « e-entretiens », le Q envoyé par e-mail comportait des Q sur 1) l’utilisation des TIC, 2) la place des TPE et des TIC, 3) le rôle de l’enseignant en sces physiques, 4) leurs attentes et perspectives.

Tremblay (2003) : Recherche-action collaborative de 2 ans sur les conditions d’implantation et de croissance d’une 12aine de CoP. Le recueil des données a consité en 1) des questionnaires administrés au démarrage de la CoP, 2) des questionnaires d’évaluation administrés qques mois + tard, 3) des entretiens de groupe, 4) l’enregistrement des échanges dans les forums. Il y a eu analyse statistique des données et l’analyse de contenu des échanges a porté sur les échantillons choisis de façon thématique.

Kimble, Hildreth et Wright (2001) : Etude sur l’interaction, la communication et la colaboartion. Méthode : Observation ds échanges par courriel écrit et vocal (téléphone, netmeeting), observation de participants sur lieur de travail.

Pallascio (2000) : Etude pour analyser le développement de la pensée réflexive et des habilités métacognitives. L’analyse de contenu des échanges entre élèves a été basée sur le repérage d’épisodes de « pensée critique », dont les catégories d’analyse ont été formulées comme suit : « se centrer sur nune question », « analyser les arguments », « poser des questions de clarification », « définir les termes et juger les définitions ».

Desbeaux-Salviat (2003). Analyse des échanges entre enseignats basée sur la méthode d' »analyse de débit » (du flux des messages) à l’aide de logiciels. Elle a combiné l’analyse exhaustive des occurences des divers mots dans les courriels reçus et la lecture de message représentatifs. Les chercheurs ont identifié ainsi les centres d’intérêt des questionneurs et ont éléboré une typologie des préoccupations essentielles.

Baym, 1995 ; Patterson, 1996 ; Rogers, 2000 ; Bélisle, 2001 : Approche ethnographique > Observation participante + entretien + collecte de sources écrites.

En sociologie et sciences de la communication : 2 perspectives. La première, étude centrée sur un ou plusieus individus, analyse des relations sociales parmi différents réseaux d’appartenance, parfois recours à l’échantillonnage raisonné ou en casade contrastée (Van der Maren, 19995, p.324 > Choix selon critères puis désignation par les personnes choisies d’autres personnnes sur mêmes critères). La seconde, centrée sue le réseau utilise des échantillons de personnes représnetatives d’une groupe donné. Dans les 2 cas, les techniques privilégiées : Q, interviews, journaux intimes, observations…pour évaluer la nature et la quantité des liens qu’un individu entretient avec d’autres personnes. Approche plutôt quantitative (ex. sociogrammes).

Aspects éthiques de la recherche sur les CoPV

Les principes fondamentaux d’éthique scientifique :

  1. Le consentement libre et éclairé des personnes (formaliser droits et engagements de chacune des parties, conditions d’utilisation des enregistrements)
  2. Le principe de préjudice nul (ex. ne pas heurter les personnes)
  3. Le principe de bénéfice raisonnable (Bénéfices que peuvent retirer les participants à l’étude? Ne doit pas influencer la participation, risques de complaisance…)
  4. Le principe d’équité (Traitement équitable des participants)
  5. Le principe de respect de la vie privée des personnes (anonymation)

Conclusions et perspectives

Usage fréquent d’une combinaison de méthodes pour assurer la triangulation des sources de données et renforcer la validité interne des recherches (Van der Maren, 1995). Pacagnella (1997) propose d’adopter une perspective comparative insiprée de Weber et Durkheim (comparer différentes communautés entre elles ou elle-même à différentes périodes). Les CoPV ne sont pas une entité mais un processus (Preece et maloney-Krichmar, 2003), il faut donc en saisir l’évolution plutôt que des clichés.

Source


Pudelko, B., Daele, A., Henri, F. (2006). Méthodes d’étude des communautés virtuelles in Daele, A. et Charlier, B. (2006). Comprendre les communautés virtuelles d’enseignants : Pratiques et recherches, L’Harmattan, Paris, pp. 127-155.

Leave a Reply