TheseGD 24 10 2006

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 194

La scénarisation de l’évaluation des activités

pédagogiques utilisant les Environnements


Informatiques d’Apprentissage Humain
Guillaume Durand

To cite this version:


Guillaume Durand. La scénarisation de l’évaluation des activités pédagogiques utilisant les Environ-
nements Informatiques d’Apprentissage Humain. Autre [cs.OH]. Université de Savoie, 2006. Français.
�NNT : �. �tel-00123094�

HAL Id: tel-00123094


https://theses.hal.science/tel-00123094
Submitted on 8 Jan 2007

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Université de Savoie Laboratoire SysCom Odile Jacob Multimédia

La scénarisation de l’évaluation des


activités pédagogiques
utilisant les Environnements
Informatiques d’Apprentissage Humain

THÈSE

présentée et soutenue publiquement le 24 octobre 2006

pour l’obtention du

Doctorat de l’Université de Savoie


(spécialité informatique)

par

Guillaume DURAND

Composition du jury
Président : Pr Jean-Pierre Peyrin CLIPS, Université Joseph Fourier
Rapporteurs : Pr Jean-Marc Labat LIP6, Université Paris 6
Dr Thierry Nodenot LIUPPA, Université de Pau
Examinateur : Dr Christophe Choquet LIUM, Université du Maine
Invité : M Henri Verdier Odile Jacob Multimédia, Paris
Directeur de thèse : Dr Christian Martel SysCom, Université de Savoie
Co-directeur de thèse : Pr Bernard Caron SysCom, Université de Savoie

Université de Savoie — Laboratoire SysCom — Odile Jacob Multimédia


1

Remerciements
Mes premiers remerciements vont à Christian Martel, directeur scientifique de cette thèse. Christian
Martel est un chercheur exigeant et passionné, et je suis heureux d’avoir eu la chance durant ces trois
années de partager ses réflexions, de disposer de son expertise scientifique et de son expérience pour mener
à bien ce travail.

Je remercie Jean-Marc Labat, Professeur à l’Université Paris 6, de m’avoir fait l’honneur d’accepter
d’être rapporteur de cette thèse. Nos intéressantes interactions ont permis d’alimenter ma réflexion.

Je remercie Thierry Nodenot, Maître de conférences à l’Université de Pau, de m’avoir fait l’honneur
d’accepter d’être rapporteur de cette thèse. Sa compétence m’a permis d’approfondir et de mieux situer
mon approche scientifique.

Je remercie Christophe Choquet, Maître de conférences à l’Université du Maine, de m’avoir fait l’honneur
de faire partie de mon jury de thèse.

Je remercie Jean-Pierre Peyrin, Professeur à l’Université Joseph Fourier, de m’avoir fait l’honneur de
présider le jury de ma soutenance de thèse.

Je remercie également les membres du laboratoire SysCom, en particulier Christine Ferraris et Lau-
rence Vignollet, Maîtres de conférences à l’Université de Savoie, avec lesquelles j’ai pu avoir de nombreux
échanges, mais aussi Bernard Caron, Professeur de l’Université de Savoie, qui a co-dirigé cette thèse.

Je tiens aussi à remercier la société Pentila, en particulier Steve Giraud qui m’a fait profiter de son
expertise technique et Igor Barma pour l’implémentation des propositions et son soutien.

Bien évidemment, cette thèse n’aurait pu avoir lieu sans la société Odile Jacob Multimédia. Je remercie
donc Henri Verdier, directeur général, Paul Ekeland et Eric vatin, chefs de projet, pour leur soutien et
leur compréhension. Merci à Marie Borrel, directrice éditoriale, pour avoir relu et corrigé les premières
versions de ce mémoire. Merci aussi à François Palluau, Webmestre, qui a été avec Marie Borrel très
attentif et enthousiaste durant ces trois années.

Enfin, je souhaite associer à ces remerciements ma famille, et en particulier ma compagne pour la confiance
qu’elle m’a témoignée dans cette aventure ainsi que pour son "coaching" qui s’est révélé très efficace. Je
remercie mon frère, Julien Durand, pour m’avoir communiqué sa passion pour les sciences et sa soif de
connaissances, ainsi que mes parents pour leur soutien, leur patience et leur investissement dans ce projet.
2
3

"Chaque enfant qu’on enseigne est un homme qu’on gagne.


Quatre-vingt-dix voleurs sur cent qui sont au bagne
Ne sont jamais allés à l’école une fois,
Et ne savent pas lire, et signent d’une croix.
C’est dans cette ombre-là qu’ils ont trouvé le crime.
L’ignorance est la nuit qui commence l’abîme.
Où rampe la raison, l’honnêteté périt.
(...)"
Victor Hugo, Les Quatre vents de l’esprit.
4
Table des matières

Chapitre 1 Introduction 3
1.1 Cadre de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Organisation du document . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

Partie I État de l’art 5

Chapitre 2 L’évaluation dans les activités d’apprentissage 7


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 L’évaluation pour l’enseignant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 L’évaluation, objet d’étude scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4 Les pratiques d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4.1 L’évaluation pronostique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.2 L’évaluation formative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.3 L’évaluation formatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.4 L’évaluation diagnostique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4.5 L’évaluation sommative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Chapitre 3 L’évaluation dans les EIAH 13


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Pratiques d’évaluation en EIAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2.1 L’évaluation sommative et pronostique . . . . . . . . . . . . . . . . . . . . . . 14
3.2.2 L’évaluation diagnostique des compétences . . . . . . . . . . . . . . . . . . . . 15
3.2.3 L’évaluation sommative et diagnostique . . . . . . . . . . . . . . . . . . . . . 17
3.2.4 L’auto-évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.5 L’évaluation par pairs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.6 L’assistance à l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.7 L’évaluation de la participation . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.8 Le portfolio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

5
6 Table des matières

Chapitre 4 Un nouveau contexte pour l’évaluation : les Espaces Numériques de


Travail 27
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Les ENT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Les efforts de standardisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3.1 Description et intégration des services pédagogiques . . . . . . . . . . . . . . . 28
4.3.2 Indexation des contenus pédagogiques . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.3 Organisation des contenus pédagogiques . . . . . . . . . . . . . . . . . . . . . 30
4.3.4 Construction des contenus pédagogiques . . . . . . . . . . . . . . . . . . . . . 32
4.3.5 Expression des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.5 L’émergence des Langages de Modélisation Pédagogiques (LMP) . . . . . . . . . . . . 35

Chapitre 5 L’évaluation et les Langages de Modélisation Pédagogique 37


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 La scénarisation des activités pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2.1 Qu’est ce qu’un scénario pédagogique . . . . . . . . . . . . . . . . . . . . . . . 37
5.2.2 Conception d’un scénario pédagogique . . . . . . . . . . . . . . . . . . . . . . 38
5.3 Les Langages de Modélisation pédagogique . . . . . . . . . . . . . . . . . . . . . . . . 38
5.3.1 IMS-LD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.3.2 LDL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4 Les Outils auteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4.1 RELOAD Learning Design Editor . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4.2 MOT+LD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4.3 Collage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4.4 CPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.5 Les infrastructures de scénarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.1 CopperCore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.5.2 Gridcole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.5.3 LAMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.5.4 LDI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 Résultats et activités scénarisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.6.1 La gestion des résultats IMS-QTI par IMS-LD . . . . . . . . . . . . . . . . . . 61
5.6.2 Usage Tracking Language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.7 Cas d’étude : le jeu des planètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.7.2 Analyse de l’activité et propositions commentées . . . . . . . . . . . . . . . . . 65
5.7.3 Proposition de l’Université Macquarie de Sydney . . . . . . . . . . . . . . . . 67
5.7.4 Proposition de l’Université Ouverte des Pays-Bas . . . . . . . . . . . . . . . . 68
5.7.5 Proposition de la Télé-Université du Québec . . . . . . . . . . . . . . . . . . . 69
5.7.6 Proposition des Universités de Bayonne et de Laval . . . . . . . . . . . . . . . 70
5.7.7 Proposition de l’Université de Montréal . . . . . . . . . . . . . . . . . . . . . . 71
7

5.7.8 Proposition de l’Université de Grenoble . . . . . . . . . . . . . . . . . . . . . . 72


5.7.9 Proposition de l’Université de Santiagao de Compostela . . . . . . . . . . . . . 72
5.7.10 Proposition de l’Université de Valladolid . . . . . . . . . . . . . . . . . . . . . 73
5.7.11 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.8 Les besoins en matière d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.9 Conclusion de l’état de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.9.1 De l’évaluation en EIAH à l’évaluation dans les ENT . . . . . . . . . . . . . . 75
5.9.2 Pauvreté de l’évaluation dans les LMP . . . . . . . . . . . . . . . . . . . . . . 75

Partie II Proposition 77

Chapitre 6 Introduction 79
6.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2 Contexte de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

Chapitre 7 Expression des résultats 81


7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2 Produit de l’activité de l’apprenant et résultat . . . . . . . . . . . . . . . . . . . . . . 81
7.3 Caractéristiques des produits de l’activité de l’apprenant et critères d’évaluation . . . 82
7.4 Résultat et compétence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
7.5 Acteurs de l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.6 Modèle de résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.7 Format des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.7.1 Présentation générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
7.7.2 Expression des produits des apprenants . . . . . . . . . . . . . . . . . . . . . . 89
7.7.3 Expression de l’évaluation des produits . . . . . . . . . . . . . . . . . . . . . . 91
7.7.4 Expression de la valeur d’un résultat . . . . . . . . . . . . . . . . . . . . . . . 92
7.7.5 Expression des compétences associées au résultat . . . . . . . . . . . . . . . . 93
7.8 Plage de validité du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.8.1 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.8.2 Les types d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.8.3 Les objets évalués . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.8.4 Les acteurs de l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.8.5 Les types d’activités évaluées . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.8.6 La passation de l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.9 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

Chapitre 8 La scénarisation de l’évaluation 101


8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2 Construction d’un scénario à l’aide de LDL . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2.1 Rappel des concepts de LDL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2.2 Méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8 Table des matières

8.2.3 Représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103


8.3 Scénarisation d’activités pédagogiques comportant une phase d’évaluation typique . . 107
8.3.1 Cas d’une évaluation pronostique . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.3.2 Cas d’une évaluation diagnostique . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.3.3 Cas d’une évaluation formative . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.3.4 Cas d’une évaluation formatrice . . . . . . . . . . . . . . . . . . . . . . . . . . 110
8.3.5 Cas d’une évaluation sommative . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.3.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
8.4 Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 113
8.4.1 Présentation de l’activité pédagogique . . . . . . . . . . . . . . . . . . . . . . 113
8.4.2 Scénarisation de l’activité pédagogique . . . . . . . . . . . . . . . . . . . . . . 114
8.4.3 Présentation des activités d’évaluation connexes . . . . . . . . . . . . . . . . . 115
8.4.4 Cas de l’évaluation diagnostique et pronostique . . . . . . . . . . . . . . . . . 115
8.4.5 Cas de l’évaluation formative . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
8.4.6 Cas de l’évaluation formatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.4.7 Cas de l’évaluation sommative . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.4.8 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.5 Extension de LDL pour l’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.5.1 Du modèle de résultats à la scénarisation de l’évaluation dans LDL . . . . . . 123
8.5.2 Association d’une position à une caractéristique d’un produit . . . . . . . . . 124
8.5.3 Association d’une position à un résultat préalablement obtenu . . . . . . . . . 124
8.5.4 Usage d’une position par une enceinte . . . . . . . . . . . . . . . . . . . . . . . 125
8.5.5 Communication des positions entre activités . . . . . . . . . . . . . . . . . . . 125
8.5.6 Définition des règles de calcul d’une évaluation et production d’un résultat . . 126
8.6 Enrichissement de LDI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
8.6.1 Association d’une position à une caractéristique d’un produit . . . . . . . . . 126
8.6.2 Communication des positions entre activités . . . . . . . . . . . . . . . . . . . 127
8.6.3 Association d’une position à un résultat préalablement obtenu . . . . . . . . . 128
8.6.4 Usage d’une position par une enceinte . . . . . . . . . . . . . . . . . . . . . . . 128
8.6.5 Définition des règles de calcul d’une évaluation et production d’un résultat . . 128
8.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.7.1 Bilan des extensions de LDL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.7.2 Bilan de l’enrichissement de LDI . . . . . . . . . . . . . . . . . . . . . . . . . . 129
8.7.3 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

Chapitre 9 Architecture 131


9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
9.2 Persistence des résultats et des caractéristiques . . . . . . . . . . . . . . . . . . . . . . 131
9.2.1 L’usage natif de XML dans l’infrastructure . . . . . . . . . . . . . . . . . . . . 131
9.2.2 La base de données eXist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
9.2.3 Le langage XQuery . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
9.2.4 L’interface de programmation XML :DB . . . . . . . . . . . . . . . . . . . . . 133
9

9.2.5 Architecture pour le stockage des résultats . . . . . . . . . . . . . . . . . . . . 134


9.3 Association des résultats aux positions . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.3.1 Archivage des résultats produits par des interactions d’évaluation . . . . . . . 135
9.3.2 Récupération de résultats préalablement obtenus . . . . . . . . . . . . . . . . 135
9.3.3 Mise en place du modèle observateur/observable pour la récupération de ca-
ractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9.3.4 Architecture pour l’utilisation des résultats par des scénarios . . . . . . . . . . 136
9.4 Les agents de l’infrastructure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.4.1 La notion d’agent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.4.2 L’agent de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.4.3 L’agent de paramètrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
9.4.4 Architecture de création et d’affichage des résultats . . . . . . . . . . . . . . . 138
9.5 Maintenance de la base de résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.5.1 Les problèmes de charge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.5.2 Fonctionnement de la base de résultats en mode cluster . . . . . . . . . . . . . 139
9.5.3 Suppression des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
9.6 Synthèse et discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

Chapitre 10 Traitement du cas d’étude : le jeu des planètes 141


10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
10.2 Rappel de l’activité du cas d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
10.3 Les évaluations du cas d’études . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
10.3.1 Une évaluation formative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
10.3.2 Une évaluation sommative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
10.4 Modélisation du jeu des planètes avec LDL étendu dans LDI enrichi . . . . . . . . . . 142
10.4.1 Modélisation globale du cas d’étude . . . . . . . . . . . . . . . . . . . . . . . . 142
10.4.2 Relations entre les activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
10.5 Proposition de scénarisation du cas d’étude . . . . . . . . . . . . . . . . . . . . . . . . 144
10.5.1 Scénarisation de l’activité d’organisation . . . . . . . . . . . . . . . . . . . . . 144
10.5.2 Scénarisation des activités d’apprentissage . . . . . . . . . . . . . . . . . . . . 146
10.5.3 Scénarisation de l’activité d’observation . . . . . . . . . . . . . . . . . . . . . . 148
10.5.4 Scénarisation de l’activité d’évaluation sommative . . . . . . . . . . . . . . . . 149
10.6 Discussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

Chapitre 11 Synthèse des propositions 151


11.1 Un modèle de résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.2 Extension du langage LDL et enrichissement de LDI . . . . . . . . . . . . . . . . . . 151
11.3 Une proposition d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
11.4 Un prototype . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
10 Table des matières

Partie III Conclusion et Perspectives 153

Chapitre 12 Conclusion générale 155


12.1 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
12.2 Perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2.1 Perspectives expérimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2.2 Perspectives en ingénierie des EIAH . . . . . . . . . . . . . . . . . . . . . . . . 156
12.2.3 Perspectives de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
12.3 Apports et perspectives pour l’entreprise . . . . . . . . . . . . . . . . . . . . . . . . . 157

Annexe A 159
A.1 Schéma XSD du formalisme de résultats . . . . . . . . . . . . . . . . . . . . . . . . . 159
A.2 Schéma XSD de LDL étendu pour le traitement du cas d’étude . . . . . . . . . . . . 164
A.3 Acronymes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

Bibliographie 173
Table des figures

3.1 CAT : principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15


3.2 Pépite : de gauche à droite, les interfaces de PepiTest, PepiDiag et PepiProf . . . . . . . . 16
3.3 TDmaths : parcours de l’apprenant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 TDmaths : interface enseignant, carte des compétences transversales . . . . . . . . . . . . 18
3.5 GenEval : phase d’auto-évaluation de l’apprenant . . . . . . . . . . . . . . . . . . . . . . . 19
3.6 OASYS : exemple de question fermée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7 OASYS : interface de correction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.8 GISMO : visualisation des connexions des apprenants au système . . . . . . . . . . . . . . 21
3.9 GISMO : visualisation des interventions des apprenants dans le forum . . . . . . . . . . . 22
3.10 SPLACH : outil de visualisation des profils d’apprenant . . . . . . . . . . . . . . . . . . . 23
3.11 APOM : interface élève . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4.1 LOM : structure générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


4.2 SCORM : vue d’un SCO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.3 SCORM : principe de l’environnement d’exécution . . . . . . . . . . . . . . . . . . . . . . 31
4.4 IMS-QTI : le modèle des quatre processus . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.5 Processus d’utilisation de traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5.1 IMS-LD : Métamodèle simplifié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39


5.2 LDL : Métamodèle simplifié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3 RELOAD : interface de création de scénario . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 MOT+LD : les éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.5 MOT+LD : l’interface . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.6 Collage : interface de création d’un scénario . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.7 Collage : interface d’aide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.8 CPM : phases de conception d’une activité d’apprentissage scénarisée . . . . . . . . . . . . 52
5.9 CPM : correspondance partielle IMS-LD/CPM . . . . . . . . . . . . . . . . . . . . . . . . 52
5.10 CPM : interface de l’outil auteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.11 CopperCore : interfaces d’importation et de validation de scénario . . . . . . . . . . . . . 54
5.12 CopperCore : interface Élève . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.13 Gridcole : usage de l’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.14 Gridcole : interface utilisateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.15 LAMS : espace auteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.16 LAMS : espace moniteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.17 LAMS : espace apprenant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.18 LDI : opérationnalisation du scénario avec les objets de l’environnement . . . . . . . . . . 59
5.19 LDI : espace apprenant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.20 LDI : tableau de bord de l’activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.21 LDI : l’éditeur ModX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.22 IMS-LD, IMS-QTI : interopérabilité [VMT+ 06] . . . . . . . . . . . . . . . . . . . . . . . . 62
5.23 UTL : représentation des traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.24 UTL : recueil des traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

11
12 Table des figures

5.25 Cas d’étude : phases de la chaîne éditoriale les plus soulignées par les différentes équipes . 65
5.26 Cas d’étude : fil conducteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.27 Cas d’étude : modélisation de l’évaluation par MOT+LD . . . . . . . . . . . . . . . . . . 69
5.28 Cas d’étude : vue globale de l’activité dans CPM . . . . . . . . . . . . . . . . . . . . . . . 70
5.29 Cas d’étude : modélisation de l’activité de l’équipe A dans Explor@Graph . . . . . . . . . 71
5.30 Cas d’étude : chaîne éditoriale de l’équipe de Santiagao de Compostela . . . . . . . . . . . 73
5.31 Cas d’étude : types d’évaluation pris en compte par les différentes équipes . . . . . . . . . 74

7.1 Lien entre produit de l’activité de l’apprenant et résultat d’évaluation . . . . . . . . . . . 81


7.2 Modélisation de l’évaluation des caractéristiques d’un produit . . . . . . . . . . . . . . . . 82
7.3 Modélisation de l’évaluation en EIAH au regard de la définition de Hadji [Had90] de l’éva-
luation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.4 Modélisation de l’évaluation dans un CAT . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.5 Vue UML du modèle de résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.6 Vue globale du schéma XSD spécifiant le formalisme de résultats . . . . . . . . . . . . . . 88
7.7 Première vue du schéma XSD des produits . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.8 Seconde vue du schéma XSD des produits . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.9 Première vue partielle du schéma décrivant l’évaluation . . . . . . . . . . . . . . . . . . . 91
7.10 Seconde vue partielle du schéma décrivant l’évaluation . . . . . . . . . . . . . . . . . . . . 92
7.11 Expression de la valeur d’un résultat d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 92
7.12 Schéma XSD du format IMS-RDCEO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.13 Schéma XSD des compétences dans le formalisme de résultats . . . . . . . . . . . . . . . . 94

8.1 Représentation et ordonnancement des activités . . . . . . . . . . . . . . . . . . . . . . . . 103


8.2 Ordonnancement des activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.3 Règles de démarrage et d’arrêt d’une activité . . . . . . . . . . . . . . . . . . . . . . . . . 104
8.4 Représentation et rôle des participants d’une activité . . . . . . . . . . . . . . . . . . . . . 104
8.5 Représentation des activités individuelles et collectives . . . . . . . . . . . . . . . . . . . . 105
8.6 Navigation des participants dans les activités . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.7 Position et partage d’objets entre activités . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.8 Illustration de la formation des groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
8.9 Différentes phases d’une activité puzzle (Jigsaw) issues de [HLVFJA+ 06] . . . . . . . . . . 114
8.10 Proposition d’une activité d’évaluation diagnostique puis pronostique dans le cadre de
l’activité puzzle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.11 Proposition d’une activité d’évaluation formative évaluant l’activité puzzle . . . . . . . . . 118
8.12 Proposition d’une activité d’évaluation formatrice évaluant l’activité puzzle . . . . . . . . 119
8.13 Proposition d’une activité d’évaluation sommative évaluant l’activité puzzle . . . . . . . . 121
8.14 Observables disponibles dans l’infrastructure LDI . . . . . . . . . . . . . . . . . . . . . . . 127

9.1 Architecture pour le stockage des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 134


9.2 Archivage des résultats issus d’une interaction LDL . . . . . . . . . . . . . . . . . . . . . . 135
9.3 Récupération des résultats d’évaluation par une position . . . . . . . . . . . . . . . . . . . 135
9.4 Fonctionnement du trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
9.5 Architecture intégrant le détail des mécanismes de dialogue entre LDI et la base eXist . . 137
9.6 Proposition finale d’architecture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
9.7 Fonctionnement de eXist en mode "cluster" . . . . . . . . . . . . . . . . . . . . . . . . . . 140

10.1 Proposition de modélisation du jeu des planètes . . . . . . . . . . . . . . . . . . . . . . . . 142


10.2 Les objets partagés entre activité d’observation et d’apprentissage . . . . . . . . . . . . . 143
10.3 Objets partagés entre les activités d’apprentissage et l’activité d’évaluation sommative . . 144
10.4 Enceinte de visualisation des traces d’activités . . . . . . . . . . . . . . . . . . . . . . . . . 148
10.5 Questionnaire d’évaluation proposé aux apprenants . . . . . . . . . . . . . . . . . . . . . . 150
Résumé
L’évaluation est indissociable des activités d’apprentissage conduites par les enseignants ou menées
par les élèves. Depuis longtemps et dans différentes disciplines (didactique, sciences de l’éducation, psy-
chologie, docimologie), elle fait l’objet de travaux et de réflexions qui contribuent à en délimiter le champ
et à préciser la nature des activités supports qui permettent de la mettre en oeuvre. D’une manière géné-
rale, l’évaluation a pour objectifs la régulation et la vérification des apprentissages. Mais elle joue aussi
un rôle important dans la sélection des élèves et leur insertion sociale lors de la mise en place des examens
et des concours. Le choix des méthodes, des outils et des techniques dépend donc en grande partie des
objectifs assignés par l’enseignement.
Historiquement, les Environnements Informatiques pour l’Apprentissage Humain (EIAH) utilisés dans
le cadre scolaire ou dans celui de la formation continue ont toujours intégré sous des formes variées des
moyens d’évaluer les utilisateurs en s’appuyant sur les méthodes, les outils et les techniques traditionnels
de l’évaluation. Mais leur façon d’exprimer les résultats demeure spécifique à chaque EIAH, ce qui peut
paraître naturel si on admet qu’un EIAH concerne généralement une discipline particulière et n’est utilisé
la plupart du temps qu’individuellement, par l’élève ou par l’enseignant.
Cependant, l’apparition des Espaces Numériques de Travail (ENT) remet cette situation en cause
dans la mesure où les évaluations produites peuvent intéresser d’autres acteurs que l’enseignant ou l’élève
et peuvent être utilisées par d’autres services présents au sein de l’ENT, en particulier les services de
scolarité. Une des questions importantes que soulève l’intégration des EIAH au sein des ENT est donc
celle de leur interopérabilité à travers les résultats qu’ils produisent. Cette question se pose dans des
termes d’autant plus difficiles que l’intégration des EIAH dans les ENT se traduit généralement par la
scénarisation de leur usage, en particulier à l’aide des langages de modélisation pédagogique.
L’étude comparée des propositions faites récemment par les principales équipes travaillant sur ces
questions au niveau international illustre clairement ces difficultés. Les recherches menées dans le cadre
de cette thèse ont donc pour objet la définition d’un modèle de résultats produits par les EIAH qui puisse
être utilisable dans le contexte des ENT.
A partir d’un inventaire et d’une analyse approfondie des situations typiques d’évaluation reconnues
par les différents spécialistes, ce modèle a été conçu en tenant compte des langages de modélisation
pédagogique et en proposant de doter ces langages de propriétés utiles à la scénarisation et l’opéra-
tionnalisation des activités d’évaluation. Le langage cible sur lequel ces propriétés ont été proposées
et implantées est LDL (Learning Design Language), langage utilisé principalement pour modéliser des
activités pédagogiques coopératives.
Enfin, une architecture a été conçue pour l’agrégation des résultats et leur archivage dans une base
de traces favorisant leur réutilisation en vue d’une éventuelle adaptation des scénarios. Des exemples de
scénarios d’évaluation réellement exécutables sur quelques ENT cibles servent de démonstrateurs aux
travaux.

Mots-clés: espace numérique de travail, ingénierie des EIAH, scénarios pédagogiques, activités d’évalua-
tion, opérationnalisation.
Chapitre 1

Introduction

1.1 Cadre de l’étude


Ce travail a eu pour cadre une Convention Industrielle de Formation par la Recherche (CIFRE) passée
entre l’Université de Savoie et Odile Jacob Multimédia1 .

Par l’intermédiaire de l’équipe scénario du laboratoire SysCom2 , l’Université de Savoie a souhaité va-
loriser les recherches menées depuis plusieurs années dans le domaine des langages de scénarisation, et ce
en relation avec des partenaires académiques comme l’équipe ARCADE3 du CLIPS-IMAG ou l’entreprise
de R&D Pentila4 .

En s’associant à ce projet, Odile Jacob Multimédia a voulu enrichir sa réflexion sur les techniques,
méthodes et outils d’évaluation dans les environnements d’apprentissage humain.

Les résultats dont il est fait état dans ce mémoire n’ont pu être obtenus qu’en liaison très étroite avec
l’équipe scénario et tous ses partenaires, en prolongement de leurs propres travaux et en écho à leurs pré-
occupations. Ils viennent donc s’ajouter naturellement aux résultats obtenus par ce collectif, en cohérence
avec ses travaux antérieurs. Puissent-ils contribuer à une meilleure assise de ses futurs travaux.

1.2 Problématique
L’évaluation est indissociable des activités d’apprentissage conduites par les enseignants ou menées par
les élèves. Elle fait l’objet, dans différentes disciplines (didactique, sciences de l’Education, docimologie,
etc.) depuis longtemps de travaux et de réflexions qui contribuent à en délimiter le champ et à préciser la
nature des activités support qui permettent de la mettre en oeuvre. D’une manière générale, l’évaluation
permet la régulation et la vérification des apprentissages. Mais c’est aussi une activité sociale [Cha99]
qui joue un rôle primordial dans l’insertion des élèves par la mise en place d’examens et de concours.
Cette évaluation se présente sous des formes différentes, suivant le rôle qu’elle doit jouer. Par exemple,
on utilisera l’évaluation :
– formative pour réguler l’apprentissage ;
– sommative pour certifier des compétences ;
– normative pour situer les apprenants par rapport aux autres.

Historiquement, les Environnements Informatiques pour l’Apprentissage Humain (EIAH) [Tch02b] utili-
sés dans le cadre scolaire ou dans celui de la formation ont toujours intégré sous des formes variées des
1 OJM, http ://www.odilejacob.fr/credm/index.htm
2 SysCom, http ://www.syscom.univ-savoie.fr/
3 ARCADE, http ://www-clips.imag.fr/arcade/
4 Pentila, http ://www.pentila.com/

3
4 Chapitre 1. Introduction

moyens d’évaluer les activités qui s’y déroulent. Les EIAH sont alors des outils spécialisés, disposant de
leurs propres méthodes et pratiques d’évaluation ; ce qui semble cohérent puisque l’EIAH est bien souvent
dépendant d’une discipline et utilisé en autarcie par l’enseignant et ses élèves.

L’apparition des Espaces Numériques de Travail (ENT) remet cette situation en cause pour deux raisons :
– les évaluations produites peuvent intéresser d’autres acteurs (parents, conseillers d’orientation, etc.)
que l’enseignant ou l’élève ;
– elles peuvent être utilisées par d’autres services présents au sein de l’ENT, en particulier les services
de scolarité.
Dans cette nouvelle configuration, une des questions importantes que soulève l’intégration des EIAH au
sein des ENT est donc celle de leur interopérabilité à travers les résultats qu’ils produisent. Cette question
se pose dans des termes d’autant plus délicats que l’intégration des EIAH dans les ENT se traduit généra-
lement par la scénarisation de leur usage, en particulier à l’aide des langages de modélisation pédagogique
(LMP). L’étude comparée des propositions des principales équipes travaillant sur ces questions au niveau
international illustre clairement ces difficultés. En outre, la scénarisation des activités pédagogiques pose
aussi le problème de la prise en compte de l’évaluation par les LMP. Or l’évaluation n’occupe pas la
place qui pourrait être attendue [DM06e]. Dans les LMP en général et IMS-LD [Con03] en particulier,
l’évaluation s’appuie sur la "culture du testing" [BBK04], c’est-à-dire sur une vision sommative de l’éva-
luation basée sur des questionnaires à choix multiples. Cette vision est restrictive et peu conforme aux
évaluations plus variées et plus pointues existantes en EIAH.

Aussi, ce travail tente de répondre à deux problèmes : d’une part, l’interopérabilité des résultats entre
services de l’ENT, d’autre part, la place de l’évaluation dans les LMP et en particulier la mise en oeuvre
d’évaluations autres que sommatives dans les infrastructures de scénarisation.

1.3 Organisation du document


Ce travail est organisé de la manière suivante :

– Ce premier chapitre présente le cadre d’étude puis la problématique de l’évaluation dans les Environ-
nements Informatiques pour l’Apprentissage Humain (EIAH) et en particulier dans la scénarisation
des activités pédagogiques. Ce chapitre est clos par la présentation de l’organisation du mémoire.

– Une première partie propose ensuite un état de l’art de l’évaluation dans le contexte des envi-
ronnements informatiques. Dans cette partie sont tout d’abord introduites les différentes formes
d’évaluation existantes ainsi que les points de vue des disciplines qui les étudient. Ce chapitre est
suivi d’une synthèse sur l’existant en matière d’évaluation dans les EIAH. L’approche des ENT en
matière d’évaluation est ensuite introduite ainsi que celle des langages et infrastructures de modéli-
sation pédagogique. Enfin un cas d’étude illustre l’état de l’art de l’évaluation dans la scénarisation
des activités pédagogiques.

– Une deuxième partie présente notre traitement du problème et nos différentes propositions.

– Enfin la troisième partie conclut sur les perspectives d’amélioration et les autres pistes de recherche
suggérées par ce travail.
Première partie

État de l’art

5
Chapitre 2

L’évaluation dans les activités


d’apprentissage

2.1 Introduction

Pour le théoricien en communication Neil Postman, "l’évaluation est un élément inévitable, nécessaire
et naturel dans toute communication humaine" [Pos79]. Cette évaluation évoquée par Postman est proche
du jugement que nous portons les uns sur les autres, parfois malgré nous, au cours de nos rencontres et
de nos échanges. Elle repose souvent sur des préjugés, des idées reçues, des stéréotypes dont nous ne
sommes pas toujours conscients mais auxquels nous échappons difficilement. Pour l’enseignant, pour qui
il n’est "pas possible d’enseigner sans évaluer" [DR05], il ne s’agit évidemment pas de ce type d’évalua-
tion. La définition du dictionnaire (Petit Robert 2006) indique que l’évaluation est l’action d’évaluer, de
déterminer la valeur ou l’importance d’une chose. L’évaluation est pratiquée dans de nombreux domaines
mais nous nous intéressons ici à l’évaluation des apprentissages, donc principalement à l’évaluation telle
qu’elle se pratique à l’école avec les individus et les groupes. A quelles conditions un apprentissage peut-il
être considéré comme réussi ? Qu’est-ce qui a pu faire obstacle à cette réussite dans ces conditions de
déroulement ou au contraire la favoriser ? Quelles incidences a eu cet apprentissage sur les apprentissages
suivants ? Les activités proposées aux élèves pour apprendre étaient-elles adaptées à leurs compétences ?

Dans l’univers scolaire, l’évaluation a principalement pour objectif de permettre aux enseignants de
vérifier que leurs élèves ont acquis les connaissances utiles et nécessaires à la poursuite de cette scolarité.
Cependant, plusieurs disciplines scientifiques viennent en renfort des enseignants pour leur proposer un
éclairage et quelques fondements théoriques sur ce qu’ils pratiquent probablement la plupart du temps
de manière empirique et sans trop de méfiance. Selon qu’elles s’intéressent à l’objectivité des mesures
réalisées ou au contraire aux effets de la subjectivité sur ces mesures, qu’elles s’attachent à mettre au
point des systèmes de notation pour traduire ces évaluations ou encore qu’elles essayent de dégager des
critères pertinents fondant les méthodes utilisées, elles offrent à l’enseignant désireux de comprendre les
ressorts de l’évaluation, de nombreuses occasions de réflexion sur les enjeux de l’évaluation. De ce point de
vue, la question de la validité des mesures est centrale et fait l’objet de nombreux travaux dans différents
domaines.

Selon les objectifs poursuivis, il existe de nombreuses manières d’évaluer d’une part les contextes dans
lesquels cette évaluation a lieu, d’autre part les personnes qu’elle concerne. Ce chapitre se propose d’en
énumérer quelques unes et de montrer ce qu’elles ont de commun et de spécifique.

7
8 Chapitre 2. L’évaluation dans les activités d’apprentissage

2.2 L’évaluation pour l’enseignant


L’enseignant doit transmettre un corpus de connaissances à ses élèves. L’évaluation lui permet de
vérifier, de contrôler l’acquisition des connaissances par ses élèves. Généralement, cette évaluation est
réalisée périodiquement, c’est le contrôle continu [RARG00] rencontré du premier cycle au supérieur.
Chaque contrôle permet à l’enseignant d’apprécier la performance de ses élèves et de se faire ainsi une
idée de l’état de leurs connaissances. Cette appréciation se concrétise généralement par l’obtention d’une
note. Les notes permettent de faire des moyennes, des moyennes de moyennes qui permettent de sélec-
tionner l’orientation scolaire des élèves. La note est ainsi un élément crucial car elle conditionne le futur
des élèves. La note est aussi un indicateur qui permet à l’élève d’adapter sa démarche d’apprentissage et
lui permet de savoir si la méthodologie qu’il emploie est en accord avec ce qui est attendu par l’enseignant.

A quelles conditions un apprentissage peut-il être considéré comme réussi ?


Pour l’enseignant, un apprentissage réussi se traduit par l’obtention d’une note élevée, c’est-à-dire une
note la plus élevée possible dans l’échelle de notation. Pour l’élève, une bonne note ne se traduit pas
nécessairement par une note élevée : une note peut être faible mais plus élevée que les notes des autres
élèves de la classe. Elle sera alors considérée comme bonne par l’élève qui aura le sentiment de mieux
réussir que ses camarades. Alors que pour l’enseignant, les résultats globaux de la classe seront considé-
rés comme faibles. L’appréciation de la note n’est pas toujours révélatrice de la réussite d’un apprentissage.

Les activités proposées aux élèves pour apprendre étaient-elles adaptées à leurs compétences ?
Lorsque les résultats obtenus par les élèves de la classe sont faibles, cela traduit la non-adaptation de
l’activité d’évaluation aux compétences des élèves. C’est alors un indicateur qui permet à l’enseignant
d’adapter les futures activités au niveau général de la classe [RARG00]. L’évaluation permet de diagnos-
tiquer le niveau des connaissances des apprenants.

Qu’est-ce qui a pu faire obstacle à cette réussite dans ces conditions de déroulement ou au contraire
la favoriser ?
Un échec peut être aussi dû aux conditions de déroulement de l’épreuve d’évaluation. En particulier,
certaines évaluations portent sur des productions personnelles des apprenants, à réaliser en dehors du
cours. Les conditions de réalisation des productions ne sont alors pas maîtrisées par l’enseignant et l’élève
peut rencontrer des difficultés. Il peut s’agir d’un manque de temps dû au délai fixé par l’enseignant pour
réaliser le travail demandé, ou de conditions de travail peu propices à domicile. Le résultat de l’apprenant
est donc révélateur de son niveau de compétence mais aussi des conditions de réalisation.

Quelles incidences a eu cet apprentissage sur les apprentissages suivants ?


L’apprentissage en classe est organisé. Les compétences sont acquises de manière ordonnée, des plus
simples au plus complexes, certaines nécessitant l’assimilation des prérequis. L’apprentissage lacunaire
d’un prérequis a des conséquences sur la maîtrise d’une compétence. La maîtrise de la lecture est un pré-
requis à tout autre apprentissage dans le système scolaire. Par exemple, la maîtrise de la lecture aura des
incidences sur nombre d’autres apprentissages ; un mauvais résultat en mathématique pourra s’expliquer,
non par une incompétence dans les notions évaluées mais à une mauvaise lecture et interprétation de
l’énoncé. Une note témoigne aussi de l’acquisition de compétences antérieures et pré-requises.
L’évaluation est un outil essentiel d’apprentissage pour l’enseignant et les apprenants. L’évaluation
est aussi au coeur de différents travaux de recherche qui essaient de mieux la définir et d’en délimiter le
champ de validité.

2.3 L’évaluation, objet d’étude scientifique


Selon Hadji [Had90](chercheur en sciences de l’éducation), "évaluer, c’est mettre en relation des élé-
ments issus d’un observable appelé référé et un référent pour produire de l’information éclairante sur le
référé afin de prendre des décisions".
L’évaluation est le processus qui consiste à déterminer :
2.4. Les pratiques d’évaluation 9

- le référent, c’est à dire les critères de qualité selon lesquels un objet sera examiné, et les compétences
qu’il aura fallu mettre en oeuvre pour parvenir à la construction de cet objet ;
- le référé, c’est-à-dire ce qui sera effectivement observé dans la production évaluée.
L’évaluation est la mise en relation de ce référent et de ce référé.
Un exemple nous permet de mieux comprendre cette définition. Considérons la rédaction qu’un élève
doit rédiger. Les compétences dont il doit faire preuve (narratives, linguistiques, scripturales), et les
qualités stylistiques, argumentatives, grammaticales, structurelles du texte qu’il produit, constituent le
référent que l’évaluation mettra en rapport avec la production réelle de l’élève, le référé. La note obtenue
par l’élève traduit sous une forme synthétique la relation qui existe entre les différents critères d’appré-
ciation identifiés par le professeur et la performance effective de l’élève dans chacun des domaines. Ce
simple exemple montre à quel point il est très difficile, comme confirme Campanale [Cam01], d’espérer
disposer d’une évaluation réellement objective.
Le référent est "ce à quoi se rapporte pour devenir plus intelligible un matériel donné" [Had90]. Il
comporte l’objectif de l’action (les compétences visées) et les critères sur lesquels on s’appuiera pour éva-
luer l’observable, c’est-à-dire la production de l’apprenant en fonction de la tâche prescrite. Si on évalue
un produit fini, les critères seront des qualités attendues de ce produit ; si on évalue un processus, les
critères seront des opérations invariantes à réaliser pour fabriquer ce produit et qui mettent en jeu les
compétences visées [Cam01]. Le référé, c’est l’observable (la production / la démarche) et les indicateurs
qui permettront de se prononcer en fonction des critères [Cam01]. L’évaluation repose sur des critères,
on parle alors d’évaluation critériée [Had97]. L’évaluation permet aussi de situer l’apprenant dans ses
apprentissages par rapport à une norme qui peut elle-même être constituée à partir des résultats obtenus
lors de l’évaluation de ses camarades. On dira alors que l’évaluation est normative [Had90].

Pour les psychologues Noizet et Caverni [NC78], "dans son acceptation la plus large, le terme évaluation
désigne l’acte par lequel, à propos d’un événement, d’un individu ou d’un objet, on émet un jugement
en se référant à un ou plusieurs critères quels que soient par ailleurs ces critères et l’objet du jugement."
Cette définition introduit la notion de jugement, qui n’est pas sans lien avec la subjectivité qu’elle peut
témoigner [Ger02].

Confirmés par Noizet et Caverni [NC78] dans les années soixante-dix, les travaux de Laugier et Pié-
ron [LPP+ 34] ont démontré dès les années 30 le caractère subjectif de l’évaluation. Laugier et Piéron ont
mené une expérience de multi-correction (réalisée par deux correcteurs) de copies d’agrégation d’histoire.
Les résultats étaient sans appel : les écarts de note allaient jusqu’à neuf points et la moitié des candidats
reçus par un correcteur était refusée par l’autre. Ils ont aussi montré que le mécanisme de double cor-
rection est illusoire. En effet, il faudrait, pour obtenir une note "exacte" (une note "exacte" étant une
moyenne de notes telle que l’adjonction d’une autre note ne modifie pas sensiblement cette moyenne) par
exemple 127 correcteurs en philosophie. Cette subjectivité est issue aussi bien [Dem04] :
– du choix du sujet de l’examen, pris parmi une multitude ;
– de l’enseignant qui subit un effet de halo [Tho20]. Effet qui va affecter inconsciemment son jugement ;
– de l’apprenant lui-même qui peut être affecté par les conditions de l’évaluation.
C’est cette subjectivité qui différencie l’évaluation de la mesure. Selon Hadji [Had97], "une mesure est
objective, en ce sens que, une fois définie l’unité, on doit toujours avoir la même mesure du même
phénomène".
L’évaluation est donc une démarche subjective. Pour autant et compte tenu de son importance en
enseignement, elle se doit d’être la plus objective possible [Ger02]. Dans ce souci, l’enseignant dispose
d’une typologie des évaluations qui oriente son travail.

2.4 Les pratiques d’évaluation


Pour mener les nécessaires évaluations [DR05] liées à ses enseignements, l’enseignant dispose de plu-
sieurs types d’évaluation :
– l’évaluation pronostique ;
– l’évaluation formative ;
10 Chapitre 2. L’évaluation dans les activités d’apprentissage

– l’évaluation formatrice ;
– l’évaluation diagnostique ;
– l’évaluation sommative.
Sont absentes de cette typologie les évaluations normatives [Had90] et critériées [Had97]. L’évaluation
normative consiste à comparer les résultats d’un apprenant par rapport à ceux d’autres apprenants. En
outre, nous pensons que tout type d’évaluation repose sur des critères, explicites ou non. Les évaluations
normatives et critériées sont donc transversales aux cinq autres présentées ici.

2.4.1 L’évaluation pronostique


L’évaluation pronostique "fonde des décisions de sélection ou d’orientation en fonction de l’aptitude
présumée à suivre un nouveau cursus, par exemple telle filière du secondaire ; elle se situe en amont d’un
cursus et sous-tend un choix" [Per01]. L’évaluation pronostique permet d’évaluer la capacité d’un appre-
nant à commencer un apprentissage, un cycle d’étude ou à exercer une profession. C’est une évaluation
en amont d’une réalisation ou d’un apprentissage.

2.4.2 L’évaluation formative


L’évaluation formative est une "évaluation dont l’ambition est de contribuer à la formation" [Had90].
Dans ce contexte, elle a pour but de réguler l’enseignement. L’évaluation fournit des informations permet-
tant à l’enseignant d’adapter son enseignement aux particularités de l’apprenant, elle entre dans le cadre
d’un enseignement différencié [ACP79]. Comme l’explique P. Perrenoud [Per97], "toute différenciation
appelle une évaluation formative". Pédagogie différenciée et évaluation formative sont intimement liées.
L’évaluation formative joue le rôle d’une "discrimination positive" qui vise à emmener chaque apprenant,
en tenant compte de ses différences, à un niveau de connaissances. La pédagogie différenciée s’inscrit dans
un processus égalitaire d’acquisition d’un savoir. En ce sens, cette pédagogie et l’évaluation formative qui
l’accompagne ont du mal à faire leur place dans l’enseignement scolaire encore habitué à une pédagogie
élitiste qui vise à sélectionner les élèves. Contrairement aux autres évaluations, l’évaluation formative
ne se contente pas d’évaluer les productions des élèves mais aussi les situations actives permettant de
comprendre la démarche des apprenants, leurs rapports aux savoirs, leurs capacités de métacognition,
etc. [Per97].

2.4.3 L’évaluation formatrice


C’est une forme particulière d’évaluation formative. Selon [Bon86], l’évaluation formative s’inscrit dans
une visée de régulation de l’apprentissage par l’enseignant tandis que dans l’évaluation formatrice, la ré-
gulation est assurée par l’apprenant. En ce sens, l’activité d’auto-évaluation, qu’elle soit individuelle, mu-
tuelle ou collective, est une évaluation formatrice. L’auto-évaluation est une "évaluation interne conduite
par le sujet de sa propre action et de ce qu’elle produit. C’est un processus d’altération de son reféren-
tiel d’action au cours de confrontations entre son propre reférentiel et celui ou ceux d’autrui" [Cam97].
L’auto-évaluation ne peut donc pas être contrainte, elle est tributaire du bon vouloir de l’évalué.

2.4.4 L’évaluation diagnostique


L’évaluation formative s’appuie en partie sur l’évaluation diagnostique. L’évaluation diagnostique per-
met d’évaluer un niveau de compétence bien souvent juste avant une nouvelle phase d’apprentissage. Dans
le cadre d’une évaluation formative, ce diagnostic permet la remédiation et la mise en oeuvre d’une pé-
dagogie différenciée.

La notion de compétence abordée ici est récurrente dans la littérature sur l’évaluation. Selon Chomsky
[Cho65], la compétence en linguistique désigne le système de règles intériorisées qui permet de comprendre
et de produire un nombre infini de phrases inédites. Tandis que la performance désigne la manifestation de
la compétence des locuteurs et réfère à la diversité des actes de langage et des contextes d’énonciation et
2.5. Synthèse 11

de communication. Ainsi, la performance peut être considérée comme la mise en application, en pratique
d’une compétence. C’est donc par la performance qu’on évalue la compétence de l’apprenant.
En sciences de l’éducation, une compétence est souvent vue sous l’angle d’un ensemble de savoir-faire
conceptualisés [Mal90] [Ver95].

2.4.5 L’évaluation sommative


C’est l’"évaluation par laquelle on fait un inventaire des compétences acquises, ou un bilan, après une
séquence de formation d’une durée plus ou moins longue" [Had90].L’évaluation met donc l’accent sur
les performances, elle contrôle les connaissances. Elle est en opposition avec l’évaluation formative, elle
ne régule pas l’apprentissage, elle le contrôle. L’évaluation sommative peut prendre la forme d’examens
périodiques qui valident un apprentissage. Elle conduit à l’obtention d’une note qui sanctionne une acti-
vité d’apprentissage afin d’établir un classement, sélectionner les apprenants ou certifier leur niveau. En
mettant l’accent sur les performances, l’évaluation sommative s’intéresse essentiellement aux productions
réalisées par les apprenants [Cam01].

2.5 Synthèse
Dans l’enseignement, l’évaluation est un concept polymorphe. Il n’y a pas une mais des définitions de
l’évaluation. Nous avons vu que l’évaluation est une activité subjective qui se doit d’être la plus objective
possible. Le praticien dispose de différents types d’évaluation pour concevoir des enseignements selon ses
besoins. Le tableau suivant, issu de la synthèse de [PC06], récapitule les évaluations existantes en terme
d’objectifs (utilisation de l’évaluation) et d’insertion dans les processus d’apprentissage (à quel moment
l’évaluation est menée). Dans la suite, nous essayons de positionner notre réflexion sur l’évaluation dans

Types d’évaluation Pronostique Diagnostique Formative Formatrice Sommative


Ojectifs Prédire. Informer. Informer. Informer. Certifier.
Contrôler Évaluer Réguler Permettre à Établir un
l’accès à un niveau l’activité de l’apprenant bilan cer-
un cycle ou de compé- l’apprenant. de réguler tifié des
une année tences. son appren- résultats de
d’étude tissage l’apprenant.
Moment d’insertion Avant l’ap- Juste avant Pendant Pendant Après l’ap-
prentissage un appren- l’apprentis- l’apprentis- prentissage
tissage sage sage

Tab. 2.1 – Synthèse sur les pratiques d’évaluation

les systèmes informatiques au regard de cette typologie des évaluations.


12 Chapitre 2. L’évaluation dans les activités d’apprentissage
Chapitre 3

L’évaluation dans les EIAH

3.1 Introduction
Historiquement, les outils informatiques utilisés dans le cadre scolaire ou de la formation ont toujours
intégré des moyens d’évaluer les apprenants. Les Environnements Informatiques pour l’Apprentissage
Humain (EIAH) [Tch02b] ne dérogent pas à cette règle.
L’évaluation joue un rôle particulier en EIAH. Selon Charles Juwah [Juw03], chercheur dans le domaine
des EIAH, l’évaluation doit :
– être motivante pour l’apprenant ;
– encourager une activité d’apprentissage soutenue ;
– contribuer à la progression de l’apprenant ;
– être faible en coût humain et facilement maintenable.
Son point de vue est que l’évaluation joue un rôle primordial dans l’activité pédagogique, non seulement
comme le moyen de vérifier les acquisitions mais aussi comme le moyen de motiver ces apprentissages
et d’inciter les élèves à progresser. C’est la volonté d’obtenir de bons résultats qui doit inciter l’élève à
apprendre et c’est la satisfaction qu’il éprouve à réussir qui doit lui donner l’envie de persévérer et d’aller
plus loin. L’enseignant n’est plus seulement confronté à la nécessité de comprendre ce qui fait obstacle
à la réussite de ses élèves mais il peut aussi, lorsqu’il utilise certains outils informatiques, se servir
de l’évaluation comme un "moteur" pour les apprentissages [DR05], l’évaluation devenant un moyen
pédagogique. Comme dit Papert, "It was hard but it was fun" [Jai]. La dimension ludique est exploitée,
au risque du consumérisme et de l’abandon des objectifs pédagogiques. Les études réalisées par exemple
sur l’outil TDmaths [DR02] [DR03] montrent que les apprenants apprécient l’aspect ludique, le fait par
exemple de gagner des récompenses lorsqu’ils réussissent une tâche (les bons points de notre enfance).
Pourtant, les enseignants utilisent assez peu les scores réalisés par les élèves pour noter leurs compétences,
comme s’ils ne prenaient pas ces évaluations au sérieux [DR02] [DR03]. Les méthodes de calcul des scores
sont bien souvent opaques et pas toujours adaptées aux besoins de l’enseignant.
Les pratiques d’évaluation en EIAH sont cependant plus variées qu’il n’y paraît. Dans ce chapitre,
nous tentons de présenter et commentons une vue exhaustive de ces pratiques.

3.2 Pratiques d’évaluation en EIAH


En EIAH, les cinq grandes catégories d’évaluation sont rencontrées (cf. 2.4).

L’évaluation sommative est la plus pratiquée, compte tenu de la facilité de sa mise en oeuvre. Elle
repose bien souvent sur des questionnaires à choix multiples ou fermés relativement faciles à évaluer au-
tomatiquement. Les systèmes de tests adaptatifs (CAT : Computer Adaptive Test) [GBH+ 84] supportent
ce type d’évaluation et permettent d’envisager leur usage dans le contexte d’une évaluation pronostique.

13
14 Chapitre 3. L’évaluation dans les EIAH

L’évaluation diagnostique a fait l’objet de recherches bien connues en France, avec entre autres le lo-
giciel Pépite [DG04]. Contrairement à l’évaluation sommative ou pronostique rencontrée dans les CAT,
l’évaluation diagnostique de Pépite permet d’obtenir un bilan de compétences de l’apprenant, et non un
simple score.

L’évaluation sommative qui a pour mission de certifier les connaissances de l’apprenant et l’évaluation
diagnostique peuvent être associées. Dans la classe, l’enseignant fait souvent appel aux deux, l’évaluation
diagnostic permettant à l’enseignant de réguler l’apprentissage. Certains EIAH, tels que TDmaths5 es-
saient d’intégrer ces deux types d’évaluation.

Toujours dans un souci de régulation des apprentissages, l’évaluation formatrice est aussi rencontrée
en EIAH. L’auto-évaluation avec le logiciel GenEval [Dav03] et l’évaluation par pairs ou co-évaluation
avec des systèmes tels que OASYS [BW01], constituent les deux formes les plus connues. L’évaluation
formatrice est souvent utilisée lorsque l’évaluation n’est pas automatisable (productions libres des appre-
nants) [Mao98] [Juw03].

L’évaluation formative est présente sous l’angle de l’assistance à la régulation des activités par l’en-
seignant. L’objectif est alors de fournir des indicateurs à l’enseignant lui permettant de mener des éva-
luations formatives en relation avec une activité d’apprentissage. Ces dernières années, de nombreux
systèmes de "monitoring" de l’activité pédagogique sont apparus, tels que FORMID SUIVI [GAP+ 04],
GISMO [MM05] mais aussi Aplusix [SNCC05] qui enregistre la totalité des actions des apprenants.

D’autres évaluations connexes pouvant être utilisées dans une démarche formative ou diagnostique existent
en EIAH. C’est le cas de l’évaluation de la participation et de l’évaluation par portfolio.
L’évaluation de la participation s’appuie généralement sur des outils de communications qu’il s’agisse de
forums [STY+ 03] [MFH+ 04] [BD05] ou de chats [Geo01].
L’évaluation par portfolio permet d’évaluer la progression de l’apprenant dans ses apprentissages [dldQ02]
[EB04].

Dans la suite, nous allons détailler chaque type d’évaluation en EIAH en l’illustrant par un exemple.

3.2.1 L’évaluation sommative et pronostique


L’évaluation sommative est souvent menée dans des environnements d’apprentissage basés sur des
banques de questionnaires à choix multiples (QCM). Chaque questionnaire est organisé en parcours et
sanctionne l’apprenant par une note finale. Le test du TOEFL6 qui permet d’évaluer le niveau d’anglais
d’une personne étrangère est certainement le plus connu. Ce test fait partie de ce qu’on appelle les tests
adaptatifs par ordinateurs ou CAT pour "Computer Adaptive Test". Ces tests permettent de certifier des
connaissances de base [Big99]. Outre une évaluation sommative, un CAT peut aussi offrir une évaluation
pronostique comme le test du GRE7 qui conditionne l’accès aux formations universitaires par les bacheliers
aux Etats-Unis.
Les tests du TOEFL et du GRE reposent sur ce système. Ils sont administrés par le service des tests
éducatifs 8 , qui est une organisation privée à but non lucratif travaillant en étroite collaboration avec les
services d’éducation américains.
Le principe de base d’un CAT est simple. Un élève se place seul devant un ordinateur et répond à
une liste de questionnaires à choix multiples. Pour chaque question, si la réponse est correcte, la question
suivante sera un peu plus difficile. Dans le cas contraire, la question suivante sera un peu plus facile
[AS92]. Il en va ainsi tout au long du test, ce qui permet au logiciel de déterminer le niveau du candidat
et de lui attribuer un score. Les systèmes de CAT s’appuient sur le modèle de la théorie de réponse
5 Sitede TDmaths, http ://www.tdmaths.com/
6 TOEFL : http ://www.ets.org
7 Graduate Record Examination : http ://www.ets.org
8 Educational Testing Service, http ://www.ets.org/
3.2. Pratiques d’évaluation en EIAH 15

SCORE
if 2x + 3 + 5y = 0
100
and 10x = 30 then
9/5
Right Answer -9/5
x 2 - 4x - 5 =
0
(x + 5) (x - 1) 5
(x + 5) (x + 1)
Right Answer (x - 5) (x - 1)
75
(x - 5) (x + 1) 5(x + 1) - 2x = 10
then = 0
Wrong Answer 10
2x + 3x + y = -5

6xy 3
5x + y 7

5(x+y) 50
6x + y if 4x - 2x = 10 then
x=0
12
Right Answer
3a = 12 then a = 6
8
Wrong Answer 3
4 10

5
25
6
10 + (- 3) =

Wrong Answer 13
7
30
10
0
PARCOURS DE QCM

Fig. 3.1 – CAT : principe

aux items (Item Response Theory) [Lor80]. Ce modèle guide le concepteur dans la construction d’un
système de CAT. Le but de ces modèles est d’optimiser la cohérence entre les scores obtenus et les réelles
compétences de l’évalué.

L’évaluation dans les CAT


Dans un CAT, on évalue des réponses à un QCM. A chaque question, la réponse est juste ou fausse,
c’est une notation binaire qui conduit à une note finale après évaluation de la dernière réponse. Plus le
nombre de questions est important plus la note finale est précise. L’évaluation globale menée par un CAT
est sommative et individuelle. Elle appartient au registre du "testing". Un CAT permet de certifier un
niveau de compétences, que ce soit en anglais pour le TOEFL ou sur les connaissances pré-universitaires
pour le GRE.

3.2.2 L’évaluation diagnostique des compétences


Contrairement aux évaluations sommatives et pronostiques des CAT, les systèmes d’évaluation diag-
nostique ne se contentent pas de corriger les productions des apprenants et de comptabiliser des points,
mais proposent des diagnostics de compétences de l’apprenant. Chaque réponse de l’apprenant est alors
analysée pour essayer de l’associer à une erreur envisagée par les concepteurs de l’exercice et à son ori-
gine potentielle. Le logiciel Pépite [DG04] et ses dérivés illustrent la mise en oeuvre de cette évaluation
diagnostique en EIAH.
Pépite [JD00] [DG04] est un logiciel qui a pour objectif d’aider les enseignants à diagnostiquer les
compétences de leurs élèves en algèbre élémentaire. Pépite a été réalisé dans le cadre du projet pluridisci-
plinaire Lingot [DBAR03], dont l’objectif est concevoir des logiciels qui aident les enseignants à réguler les
apprentissages en algèbre. Pépite est l’axe diagnostique du projet Lingot. C’est un outil logiciel composé
de trois parties :
– PepiTest qui est destiné aux élèves. Il permet à ces derniers de résoudre une liste de 22 exercices
constitués de questions ouvertes et fermées en algèbre ;
– PepiDiag qui est le module d’analyse des réponses. Il interprète les réponses des élèves à partir des
analyses didactiques élaborées en amont du projet ;
16 Chapitre 3. L’évaluation dans les EIAH

Fig. 3.2 – Pépite : de gauche à droite, les interfaces de PepiTest, PepiDiag et PepiProf

– PepiProf qui est l’outil enseignant. Il établit le profil de chaque élève et permet de modifier les
réponses apportées par les élèves dans le cas où l’enseignant les trouverait contestables.

L’évaluation dans Pépite


Pépite permet d’évaluer les compétences des apprenants en algèbre. Cette évaluation sommative et
individuelle de l’apprenant est automatique. Il fournit grâce à PepiDiag une synthèse en pourcentages
d’acquisition des compétences mises en jeux par le questionnaire. L’enseignant obtient pour chaque ap-
prenant un diagnostic composé de quatre parties :
– La partie "Taux de réussite et traitements maîtrisés" indique le taux de réussite par type d’exercice ;
– La partie "Modes de fonctionnement" détaille la manière de justifier les réponses et entre plus en
détail dans la résolution des exercices. On s’attache aux compétences transversales de l’apprenant ;
– La partie "Diagramme d’articulation entre les différents cadres" représente graphiquement les modes
de fonctionnement de l’apprenant ;
– La partie "Résumé du profil" propose un résumé textuel du diagnostic.
Voici ci-dessous un extrait d’un résumé de profil PepiDiag.
Utilisation des lettres pour faire du calcul algébrique avec des
règles fausses dans 40% des réponses. La maîtrise du calcul
algébrique reste insuffisante (maîtrise correcte dans seulement
45% des questions). Les difficultés sont liées à :
- Règles de transformation non maîtrisées, mais identification
correcte du rôle des opérateurs + et x dans 20% des réponses
(utilisation inadaptée des parenthèses qui conduit à un résultat
correct, utilisation de règles de transformation fausses identifiées).
- Identification incorrecte du rôle des opérateurs + et x dans 5% des
réponses (les règles de transformation utilisées "assemblent" les termes).
Conversion correcte dans 72% des réponses. Justification de type
scolaire dans 50% des réponses.
Pépite permet aussi de réaliser un profil collectif des apprenants. Il est possible de visualiser le diagnostic
"moyen" d’une classe.
3.2. Pratiques d’évaluation en EIAH 17

Une première version de Pépite a été développée en Delphi en 2000, suivie en 2002 par une nouvelle
version Java. Pépite a été très largement expérimenté. Cependant, les résultats de ces expérimentations
sont assez mitigés. PepiDiag montre ainsi quelques inconsistances dans la grille d’analyse didactique
lorsqu’elle est appliquée par le logiciel, c’est-à-dire d’une manière très rigide et sans discernement. En
outre la grille d’évaluation présentée hors contexte induit de nombreuses difficultés : par exemple, certains
enseignants ne comprennent pas les items du diagnostic [JD00] [DG04].

3.2.3 L’évaluation sommative et diagnostique


Certains exerciseurs commerciaux tels que TDmaths intègrent les deux types d’évaluation, sommative
et diagnostique. TDmaths prend aussi en compte l’évaluation transversale évoquée plus haut (cf. 2.4) :
l’évaluation normative.
TDmaths9 est un exerciseur de mathématiques destiné aux élèves de niveau collège. Il équipe près de
400 collèges, soit un minimum de 12000 utilisateurs. TDmaths est une application client-serveur java.
Les élèves progressent en autonomie, encouragés et guidés par leur enseignant. L’ensemble du pro-
gramme d’algèbre du collège est présenté sous forme de cours synthétiques, illustrés par des exemples et
structurés en chapitres. Les liens entre les chapitres dessinent la carte des mathématiques. Cette carte
présente les différents parcours possibles dans le programme, y compris les passages entre les niveaux
(6ème, 5ème, 4ème, 3ème).

Fig. 3.3 – TDmaths : parcours de l’apprenant

En suivant ces liens, l’élève progresse au fur et à mesure de sa maîtrise des notions, validée par
ses succès aux exercices. Les exercices, de difficulté croissante, ont des énoncés aléatoires. TDmaths
offre ainsi plus de 600 exercices, une grande variété de formes (QCM, saisie alphanumérique, calcul
mental chronométré, représentation graphique) et une infinité d’énoncés. A chaque nouvelle connexion,
l’élève peut reprendre son travail là où il l’a laissé. Les caractéristiques de suivi du travail de l’élève par
l’enseignant sont les suivants :
– évaluation permanente des élèves conforme aux objectifs des évaluations nationales ;
– analyse précise des connaissances de chaque élève : notions travaillées, maîtrise de ces notions ;
– historique des sessions de travail et des résultats obtenus.

L’évaluation dans TDmaths


Dans TDmaths, trois types d’évaluation sont intégrés :
9 Site de TDmaths, http ://www.tdmaths.com/
18 Chapitre 3. L’évaluation dans les EIAH

– Une évaluation sommative individuelle des performances sanctionnée par des scores obtenus dans
les exercices de mathématiques ;
– Une évaluation diagnostique des apprenants. Les compétences transversales des apprenants sont
évaluées et un diagnostic graphique est ensuite proposé à l’enseignant. Il peut alors envisager des
remédiations à partir de cette évaluation. Dans ce cas, l’évaluation s’inscrit alors dans un cadre
formatif ;
– Une évaluation normative des apprenants. Que ce soit au niveau des scores ou des compétences
transversales, le logiciel propose de positionner les résultats de ces évaluations par rapport à la
classe.

Fig. 3.4 – TDmaths : interface enseignant, carte des compétences transversales

Les compétences transversales évaluées dans TDmaths sont des savoir-faire tels que "lire un énoncé",
"critiquer un résultat", etc.
Dans le sens où TDmaths est un outil commercial largement diffusé, il est représentatif des pratiques
en EIAH dans les collèges français. Du point de vue de l’évaluation, TDmaths est dual. D’une part,
il offre une évaluation de type "testing" partagée par le plus grand nombre d’EIAH, d’autre part il
introduit l’évaluation diagnostique des compétences. Celle-ci est plus souvent rencontrée dans des outils
de recherche tels que Pépite [DG04]. Il confirme donc l’attente des enseignants d’une évaluation fine des
compétences des apprenants.

3.2.4 L’auto-évaluation
Dans certains cas, il peut être utile de proposer à l’apprenant de s’auto-évaluer afin de favoriser
l’auto-régulation de ses apprentissages en s’insérant dans le cadre d’une évaluation formative. Le logiciel
GenEval [Dav03] propose une liste de questions, dans laquelle l’apprenant peut naviguer. Pour chaque
question, l’apprenant peut bénéficier ou non d’indications pour répondre. Une fois la réponse donnée et
corrigée, l’apprenant évalue sa maîtrise des compétences mises en jeu dans les questions en se donnant
une note.
GenEval [Dav03] est un logiciel qui permet de générer des exercices d’auto-évaluation. Ce logiciel a été
développé par le Centre d’Auto-Formation et d’Innovation Multimédia (CAFIM) dans le cadre du projet
européen ARIADNE (Alliance of Remote Instructional Authoring and Distribution Networks for Europe).
Le projet européen ARIADNE regroupe une quinzaine d’universités européennes et a pour objectifs de
3.2. Pratiques d’évaluation en EIAH 19

favoriser et mutualiser la production de documents pédagogiques hypermédias et d’expérimenter des


scénarios pédagogiques avec des étudiants en situation d’apprentissage autonome. Le CAFIM peut se
définir à la fois comme une unité de réflexion sur les usages pédagogiques de l’ordinateur et comme
un centre de développement des outils et des ressources nécessaires à la mise en place d’enseignements
médiatisés.
Un exercice d’auto-évaluation créé avec GenEval offre aux étudiants un cadre pour résoudre un exercice,
avec des accès hypermédias à des informations pertinentes pour la compréhension des concepts étudiés,
avec des orientations et des aides méthodologiques progressives. GenEval propose à l’apprenant une suite
de questions auxquelles il doit répondre. Il dispose dans cet exercice d’indices qu’il peut ou non utiliser
pour répondre aux questions. Il répond à toutes les questions puis évalue sa maîtrise des compétences
mises en jeux dans le questionnaire.

L’évaluation dans GenEval


Dans GenEval, deux types d’évaluation sont menés conjointement :
– Une évaluation individuelle sommative. Lorsque l’apprenant répond à une question, le système
GenEval donne une correction ;
– Une auto-évaluation. L’apprenant évalue sa maîtrise des compétences. Cette évaluation favorise
l’auto-régulation de ses apprentissages en s’insérant dans le cadre d’une évaluation formative [Sch90].

Fig. 3.5 – GenEval : phase d’auto-évaluation de l’apprenant

Contrairement aux autres pratiques d’évaluation, l’auto-évaluation est peu représentée. Pourtant,
comme le soulignent certains psychologues [Sch90], cette évaluation s’intègre idéalement dans une logique
formative de l’évaluation, en responsabilisant l’apprenant dans sa construction du savoir. C’est donc une
pratique d’évaluation légitime et intéressante dans cette optique.

3.2.5 L’évaluation par pairs


Une des premières pratiques d’évaluation des activités collaboratives en EIAH est l’auto-évaluation
par pairs [Mao98]. Cette évaluation peut être :
– Individuelle. Un apprenant évalue un autre apprenant [BW01].
– Collective. Un groupe d’apprenants évalue un apprenant ou un groupe d’apprenants [WSJ04]
[Juw03].
Dans le cas où l’évaluation est menée par un groupe d’apprenants et porte sur une production réalisée
par un autre groupe, une des difficultés peut provenir de la difficulté pour les membres du groupe qui
évaluent à se mettre d’accord sur les résultats de l’évaluation [Juw03].
20 Chapitre 3. L’évaluation dans les EIAH

Le développement d’OASYS [BW01] (On-line Assessment System) a débuté en 2000 et s’est terminé en
2002 avec une nouvelle version OASYS2 [WSJ04].Cet outil a été conçu par des chercheurs de l’Université
de Warwick à Coventry en Angleterre. OASYS est un outil WEB d’évaluation par pairs. Il permet de
créer et diffuser auprès d’apprenants des questionnaires. Les questionnaires sont composés de questions
à choix multiples et de questions ouvertes.

Fig. 3.6 – OASYS : exemple de question fermée

Les concepteurs ont choisi l’évaluation par pairs pour évaluer les réponses aux questions ouvertes
dont l’évaluation est difficilement automatisable. OASYS a été expérimenté en 2002 dans le cadre de
cours en programmation. Dans cette expérimentation, la possibilité d’utiliser des questions ouvertes était
indispensable pour permettre aux apprenants d’écrire des programmes informatiques.

L’évaluation dans OASYS


Dans OASYS, chaque apprenant répond tout d’abord aux questions qui lui sont posées avant de
devenir évaluateur. L’apprenant doit ensuite évaluer trois autres apprenants dont les copies lui sont
automatiquement attribuées. Pour l’évaluation de chaque question, l’enseignant a préalablement défini

Fig. 3.7 – OASYS : interface de correction

les critères d’évaluation, c’est-à-dire les éléments sur lesquels l’apprenant va devoir se focaliser pour
3.2. Pratiques d’évaluation en EIAH 21

évaluer la réponse. Pour évaluer, l’apprenant dispose d’un questionnaire qui apprécie le respect des critères
sélectionnés par l’enseignant. Dans le processus d’évaluation, l’enseignant joue le rôle de modérateur. Il
est prévenu si un écart entre les différentes évaluations d’une même copie est important.
La version OASYS2 intègre de nouvelles fonctionnalités. Dans la phase d’évaluation, les apprenants
peuvent être groupés. Ils évaluent ensemble les réponses d’autres groupes en échangeant leurs points de
vue dans un chat. A la fin du processus d’évaluation, chaque apprenant reçoit son résultat.
OASYS est un système évolué d’évaluation par pairs. Il apporte une solution originale à l’évaluation
des questions ouvertes. En outre, le fait d’avoir été utilisé par les concepteurs avec leurs élèves a permis
l’émergence de la version 2 qui intègre une vision collective de l’évaluation par pairs. Les résultats issus
des expérimentations montrent aussi que l’enseignant est assez rarement sollicité dans son rôle de modé-
rateur. Cela témoigne d’une bonne conception de ce système d’évaluation et d’une réelle autonomie des
apprenants.

3.2.6 L’assistance à l’évaluation


S’il est possible d’évaluer relativement finement une production, il n’en est pas de même pour une
démarche. Aussi, qu’il s’agisse d’activités individuelles ou collectives, des solutions d’assistance à l’éva-
luation sont proposées. Elles consistent bien souvent à fournir à l’enseignant des vues sur les activités
par le biais d’indicateurs, de mesures [MY04] qui permettent à l’enseignant d’évaluer le déroulement de
l’activité. Dans ce contexte, plus que des outils de mesure [MM05], il existe des systèmes qui proposent
de superviser l’activité.
Dans la configuration de la classe, l’enseignant a la possibilité d’observer les réactions de ses élèves et
ainsi d’adapter son cours. GISMO (Graphical Interactive Student Monitoring System) [MM05] permet
à l’enseignant de maîtriser ce qui se déroule durant l’activité pédagogique, et ce par le biais d’interfaces
de visualisation d’indicateurs [Maz98]. Il répond à la question du "retour pour l’enseignant" [Lab02] en
lui fournissant des visualisations d’indicateurs. C’est un outil dit d’"awareness". Le système de gestion

Fig. 3.8 – GISMO : visualisation des connexions des apprenants au système

d’apprentissage utilisé par GISMO est Moodle10 . Moodle est un Espace Numérique de Travail (ENT)
particulier. C’est un Système de Gestion de l’Apprentissage (SGA). Cette sous-catégorie très spécialisée
d’ENT permet de créer et de jouer des questionnaires et des cours. Moodle dispose d’outils de communica-
tion et d’espaces partagés. GISMO permet de visualiser les connexions à Moodle, les accès aux ressources
contenues dans Moodle, les contributions dans le forum (création d’un sujet de discussion, postage d’un
commentaire, etc..) et l’état des exercices proposés aux apprenants (en cours, terminé, etc.).
10 Moodle, http ://moodle.org/
22 Chapitre 3. L’évaluation dans les EIAH

L’évaluation dans GISMO

Fig. 3.9 – GISMO : visualisation des interventions des apprenants dans le forum

GISMO fournit à l’enseignant des indicateurs qui l’aident dans sa tâche d’évaluation et de régulation
du travail des apprenants dans Moodle. Mis à part les tests qui sont corrigés de manière automatique
dans Moodle, l’évaluation formative des apprenants est à la charge de l’enseignant. A partir des obser-
vations fournies par GISMO, l’enseignant peut interagir et guider les apprenants. GISMO est un outil
de visualisation de l’activité à travers des traces prédéfinies par les concepteurs du logiciel. Il n’est pas
possible pour l’enseignant de visualiser d’autres traces. C’est pourquoi GISMO offre une vision orientée
de l’activité même si les concepteurs ont défini les observables avec des enseignants. Cependant, GISMO
atténue l’effet "boîte noire" des EIAH et est un premier pas certain pour aider l’enseignant à superviser
une activité.

3.2.7 L’évaluation de la participation


Bien que commune à toute activité collective, l’évaluation de la participation se retrouve quasi es-
sentiellement dans le cadre d’activités utilisant des outils de communication. Deux cas de figures sont
rencontrés :
– L’évaluation porte sur la qualité des discussions grâce à des techniques de "text mining" qui ana-
lysent le rapport entre mots clés (ceux attendus par l’enseignant) et nombre d’échanges. C’est le cas
par exemple du logiciel Ibee [STY+ 03], qui assiste l’enseignant pour gérer l’activité des apprenants
dans un forum. En évaluant la qualité du discours des participants, le logiciel aide à l’évaluation de
la maîtrise de compétences attendues par l’enseignant.
– L’évaluation est menée au sein d’un outil de communication, par l’analyse des actes de langage des
apprenants. C’est le cas dans SPLACH [Geo04], où à chaque communication, le participant doit au
préalable pré-sélectionner un acte de langage (Question, Réponse, etc) parmi la liste proposée. Le
système est alors capable d’évaluer le profil de l’apprenant, c’est-à-dire s’il est actif, en retrait etc.
Dans ce cas la qualité du discours n’est pas évaluée. On ne cherche pas à vérifier des compétences
mais l’engagement [DV03] des participants dans l’activité.
SPLACH (Support d’une pédagogie de Projet pour l’Apprentissage Collectif) est un environnement
informatique support d’une pédagogie par projet permettant l’apprentissage collectif à distance [Geo01].
Il fait partie des Environnements Interactifs d’Apprentissage à Distance (EIAD). SPLACH alterne des
phases de travail synchrones et asynchrones. Deux prototypes ont vu le jour : le premier a permis à
des collégiens d’établissements différents de réaliser la construction de robots. Les collégiens étaient en
concurrence pour fournir le meilleur robot possible. Le second permettait à des étudiants de la Télé-
université du Québec (Téluq) de développer un programme informatique en commun.
3.2. Pratiques d’évaluation en EIAH 23

SPLACH dispose de différents outils de communication : forum, webmail, espace de réunion. L’espace
de réunion est un chat amélioré, fonctionnant par tour de parole et requérant des actes de langage (ré-
pondre, demander,..) pour obtenir une conversation structurée. Les apprenants rédigent différents docu-
ments et questionnaires qu’ils sauvegardent dans un espace "Documents", qui est partagé en "documents
de l’équipe", "documents personnels" et "documents des équipiers". Suivant les prototypes, différents
outils ont été ajoutés. Dans le premier prototype, on trouve un outil de description de robot, un outil de
programmation et une interface de pilotage de robot. Dans le second, un outil permettant de programmer
en Pascal dans l’environnement SPLACH a été développé.

L’évaluation dans SPLACH


L’évaluation des apprenants dans SPLACH est formative. L’enseignant supervise l’activité et agit sur
son déroulement. Il a ainsi la possibilité de vérifier la participation au projet et d’évaluer les productions
des apprenants. Le point fort de SPLACH est son outil d’évaluation des profils des apprenants basé sur
les conversations dans un chat structuré. Chaque apprenant intervient dans le chat en utilisant un acte
de langage. A partir de la théorie sur les actes de langage de Pléty [Plé96], SPLACH [Geo04] permet de
profiler l’apprenant comme animateur, vérificateur, quêteur ou indépendant de l’activité de groupe.

Fig. 3.10 – SPLACH : outil de visualisation des profils d’apprenant

L’intérêt de SPLACH réside dans l’assistance à l’évaluation, qu’il propose en permettant à l’enseignant
de superviser le déroulement du projet mais aussi en permettant de connaître le rôle social joué par chaque
apprenant.

3.2.8 Le portfolio
Les systèmes de portfolio sont très répandus en Amérique du Nord. Un groupe de travail de la
commission scolaire des Premières-Seigneuries au Québec11 définit le portfolio comme étant un outil
d’évaluation des apprentissages qui permet de recueillir et de conserver des échantillons des réalisations
de l’élève. Il s’inscrit dans une démarche d’évaluation formative continue et est réalisé en collaboration
avec l’élève. Nous nous intéressons ici au portfolio numérique de l’apprenant, système logiciel permettant
le stockage et l’annotation de ressources numériques issues des réalisations de l’apprenant. Charge est à
l’apprenant de choisir les réalisations qu’il ajoute à son portfolio, ce qui l’aide à s’auto-évaluer, observer
ses progrès, s’impliquer dans une réelle démarche de réflexion métacognitive.
Selon l’usage qui en est fait, on distingue trois types de portfolio de l’apprenant selon [EB04] [dldQ02] :
– le portfolio d’apprentissage, qui centralise les travaux de l’apprenant et ses commentaires sur ses
propres travaux ;
11 Définition en ligne, http ://recit.csdps.qc.ca/portfolio/le_quoi.htm
24 Chapitre 3. L’évaluation dans les EIAH

– Le portfolio de présentation, qui répertorie les meilleurs travaux de l’apprenant. C’est l’équivalent
du "book" de l’artiste ;
– Le portfolio d’évaluation, qui permet d’évaluer la progression de l’apprenant dans ses apprentissages.
Il contient des productions, des résultats d’évaluation, les observations de l’apprenant et parfois ses
auto-évaluations.
Ces types de portfolio ne sont pas exclusifs les uns par rapport aux autres. En général, un portfolio
numérique peut engendrer ces trois stéréotypes. C’est l’enseignant qui choisit l’usage du portfolio.
Le développement du portfolio APOM a débuté en 1998 par un groupe de travail de la Coopéra-
tion régionale de développement pédagogique (CDR) de Montérégie (Québec). Les concepteurs ont voulu
développer un portfolio numérique en ligne, simple, convivial et ne nécessitant pas de compétences tech-
niques. En 2003, APOM est devenu un service du système de gestion de l’apprentissage COLLABA12 et
en 2005 d’EDU-GROUPE13 . Dans APOM, l’apprenant gère des fiches de travail (voir figure ci-dessous)
dans lesquelles il indique une description du travail réalisé, les compétences mises en jeu, ses remarques et
observations ainsi que la date et la discipline. Il est possible d’associer aux fiches un document numérique
(pdf, text). L’enseignant peut consulter les fiches et les modifier. L’apprenant peut décider de partager
ses fiches avec d’autres apprenants.

Fig. 3.11 – APOM : interface élève

L’évaluation dans APOM

L’évaluation dans un portfolio peut être de nature différente selon les désirs de l’enseignant [dldQ02].
Dans le portfolio d’apprentissage et de présentation, une large place est laissée à l’apprenant qui auto-
évalue ses productions en les choisissant et en les commentant. En revanche, dans le cas du portfolio
d’évaluation, l’évaluation principale est celle de l’enseignant qui évalue les compétences de l’apprenant
grâce aux documents qu’il a ajoutés. Un portfolio d’évaluation peut être utilisé, par exemple, pour
l’obtention d’un diplôme.
Les systèmes de portfolio très répandus en Amérique du Nord, offrent un contexte d’apprentissage
riche. Avec ces outils, les situations d’apprentissage envisageables sont diverses. Du point de vue de
l’évaluation, le portfolio permet de mener des évaluations formatrices dans lesquelles l’apprenant prend
conscience de ses progrès. Cela lui permet de mieux s’impliquer dans ses apprentissages.

12 COLLABA, http ://www.collaba.ca/fr/


13 EDU-GROUPE, http ://portail.csp.qc.ca/EduGroupe/Anonym/Accueil.fr.aspx
3.3. Synthèse 25

3.3 Synthèse
Il est généralement admis que l’évaluation en EIAH améliore la détection des progrès et lacunes
des apprenants suivant la rapidité et la qualité des interactions qu’ils ont avec et dans l’EIAH [Bul99].
L’évaluation en EIAH est en ce sens une extension des méthodes et techniques traditionnelles d’évaluation.
En outre, nous constatons que les pratiques référencées dans les EIAH couvrent les grandes catégories
classiques d’évaluation (cf. 2.4). Le tableau 3.1 le synthétise.

Types d’évaluation Pronostique Diagnostique Formative Formatrice Sommative


Ojectifs Prédire. Informer. Informer. Informer. Certifier.
Contrôler Évaluer Réguler Permettre à Établir un
l’accès à un niveau l’activité de l’apprenant bilan cer-
un cycle ou de compé- l’apprenant. de réguler tifié des
une année tences. son appren- résultats de
d’étude tissage l’apprenant.
Moment d’insertion Avant l’ap- Juste avant Pendant Pendant Après l’ap-
prentissage un appren- l’apprentis- l’apprentis- prentissage
tissage sage sage
EIAH CAT (GRE) Pépite, GISMO, GenEval, CAT
TDmaths SPLACH OASYS, (TOEFL),
APOM TDmaths

Tab. 3.1 – Les types d’évaluation en EIAH (inspiré de [PC06])

Mais ces types sont rarement présents simultanément dans un même EIAH. Or, un enseignant peut
avoir besoin, sur une même activité pédagogique, de prévoir et de mettre en place des évaluations de
différents types. S’il veut, par exemple, constituer des groupes de lecture en les fondant sur la capacité de
l’élève à lire un texte, il aura besoin d’introduire une méthode d’évaluation de type diagnostique. Si sur
la lecture proposée de ce même texte, il s’aperçoit que les élèves ont du mal à comprendre une notion, il
devra introduire une méthode d’évaluation de type formatif. Si enfin il veut s’assurer que le sujet dont
traite le texte a été compris et qu’il n’a pas l’intention d’y revenir, il devra prévoir une évaluation de type
sommatif.
Les évaluations ne sont pas utiles uniquement pour mesurer les progrès réalisés par les élèves. Elles
peuvent aussi servir à faciliter ces progrès à condition de pouvoir être utilisées par les enseignants comme
un outil pédagogique à part entière, ce qui implique qu’ils puissent les organiser à leur guise.
Pour que les enseignants aient confiance dans les évaluations qui leurs sont proposées, il faut qu’ils
comprennent comment elles sont bâties, sur quels critères elles s’appuient, par quels moyens les résultats
qu’elles proposent sont obtenus, quels sont leurs référents, leurs référés et les relations qui existent entre
les deux, pour employer la terminologie utilisée en Sciences de l’Education (cf. 2.4).
Les élèves, eux aussi, ont le droit de connaître les modalités d’une évaluation. Par exemple, si la
grammaire et la forme générale d’un devoir écrit revêtent de l’importance pour les objectifs l’enseignant
s’est assigné, les élèves doivent être informés de ces critères lorsque le travail à faire leur est donné. Si
leur degré d’autonomie est un élément qui compte dans l’évaluation de leurs travaux, il importe qu’ils
le sachent. Si l’enseignant a l’intention d’observer ses élèves au cours de l’activité, il vaut mieux leur
indiquer.
D’une manière générale, le "scénario" prévu pour l’évaluation doit être compréhensible et communi-
cable. L’évaluation ne peut être confondue avec la surveillance en raison de son caractère pédagogique et
du rôle métacognitif qu’elle joue au cours des apprentissages.
Les connaissances, les compétences et les comportements des élèves évoluent dans le temps. Si ces
connaissances, ces compétences et ces comportements peuvent être évalués sur un court intervalle de
temps, leur évaluation peut aussi nécessiter un recueil systématique de données sur des périodes assez
longues. L’évaluation s’inscrit dans le temps scolaire, une séance, une période, une année, selon les objectifs
poursuivis par l’enseignant.
26 Chapitre 3. L’évaluation dans les EIAH
Chapitre 4

Un nouveau contexte pour l’évaluation :


les Espaces Numériques de Travail

4.1 Introduction
L’apparition des Espaces Numériques de Travail (ENT) crée un contexte nouveau pour les EIAH mais
aussi pour l’évaluation des apprenants [Mar02]. Jusqu’alors très spécialisés et très autarciques, les EIAH
doivent aujourd’hui s’intégrer dans des Espaces Numériques de Travail (ENT).
Cette intégration passe par la définition de normes et standards permettant la communication entre
services de l’ENT.

4.2 Les ENT


Selon le schéma directeur des ENT défini par le Ministère de l’Education [SDE03], un ENT est un
"point d’accès à un ensemble intégré de services numériques à la disposition d’un individu dans le cadre de
son activité de travail". Un ENT agrège des services numériques divers tels qu’un serveur de messagerie,
des outils de communication (chat et forum), etc [CCC+ 04]. Dans le contexte éducatif, l’ENT met à la
disposition des utilisateurs (élèves et enseignants) des outils spécifiques tels que des exerciseurs, des outils
de suivi de l’apprentissage. Les plateformes Moodle14 , WebCT15 et Sakaï16 sont autant d’exemples de
ces ENT éducatifs aussi appelés Systèmes de Gestion de l’Apprentissage (SGA).

4.3 Les efforts de standardisation


Pour permettre l’interopérabilité des outils d’apprentissage avec les ENT, des propositions de stan-
dardisation ont été faites pour :
– décrire les interfaces de programmation des services pédagogiques à intégrer [KMT04] [SIF05]
[SQI04] [Not01] ;
– indexer les contenus pédagogiques manipulés par ces services pédagogiques [oEE02] ;
– décrire l’organisation de ces contenus pédagogiques [ADL04a] ;
– exprimer des contenus pédagogiques dynamiques tels que des exercices [Con05b] pour permettre
leur réutilisation entre services ;
– exprimer les résultats produits pas les apprenants ou par des évaluations [Con05c] (exerciseurs, etc.)
en vue de les réutiliser dans d’autres services de l’ENT (services de scolarité, etc.).
14 Moodle, http ://moodle.org/
15 WebCT, http ://www.webct.com/
16 Sakaï, http ://sakaiproject.org/

27
28 Chapitre 4. Un nouveau contexte pour l’évaluation : les Espaces Numériques de Travail

4.3.1 Description et intégration des services pédagogiques


Pour permettre l’intégration d’un service dans un ENT, il est nécessaire de décrire les méthodes of-
fertes par son interface de programmation. Il existe différentes spécifications (OKI-OSID [KMT04], SQI
[SQI04], SIF [SIF05]) qui décrivent les méthodes à implémenter pour qu’il puisse être intégré à l’ENT.
De son côté, l’ENT doit être en mesure d’utiliser ces méthodes et donc de posséder l’interface nécessaire.
La plus connue des spécifications d’interface de programmation de services est la spécification OKI-OSID
[KMT04].

L’"Open Knowledge Initiative" (O.K.I.) [KMT04] a été lancée en janvier 2001 grâce aux efforts de cher-
cheurs de l’institut technologique du Massachusetts et au mécénat d’une fondation privée américaine (la
fondation Andrew W. Mellon). Le projet a concentré son énergie sur le développement d’une spécification
qui décrit les méthodes que doivent implémenter les services en vue de leur intégration dans un ENT. La
mise en oeuvre de cette spécification :
– offre la possibilité d’intégrer dans l’ENT des services web à la carte suivant les impératifs pédago-
giques du moment ;
– permet plus aisément le partage de services pédagogiques entre établissements ;
– diminue les coûts de développement en favorisant la réutilisabilité des services.
La spécification O.K.I. est constituée d’un ensemble de définitions d’interface de services ouverts
(Open Service Interface Definitions ou OSID). OKI intègre 16 OSID qui peuvent être classées en deux
catégories :
– les services communs qui gèrent en particulier les fonctionnalités d’authentification et d’initialisation
du service ;
– les services éducatifs qui permettent de récupérer des scores, des résultats ainsi que l’organisation
des cours et des exercices. Les scores et les résultats retournés ne sont pas formalisés, ce sont de
simples valeurs associées à une description ("Type" dans la spécification).
Cette spécification est actuellement implémentée en java au sein de l’ENT Sakaï17 . Sakaï adopte une
architecture modulaire d’intégration des services. Cependant, Sakaï ne permet pas l’utilisation de services
externes à l’infrastructure. L’ajout de nouveaux services n’est pas simple puisqu’il nécessite des dévelop-
pements dans la plateforme. C’est néanmoins un premier pas vers le fonctionnement des ENT de demain.
La visée de ce type de spécifications (OKI-OSID, SIF, SQI) est clairement de permettre prochainement
une intégration à la carte des services d’un ENT. Du point de vue de l’évaluation, même si l’expression
des résultats n’est pas formalisée, les spécifications d’interfaces ont pour optique de permettre à l’ensei-
gnant de choisir les services en adéquation avec ses désirs. Et en particulier de choisir les évaluations qu’il
souhaite mettre en oeuvre.

4.3.2 Indexation des contenus pédagogiques


Dans un environnement ouvert tel que l’ENT, l’utilisation d’un grand nombre de ressources pédago-
giques et leur manipulation, recherche, réutilisation, partage nécessitent une description et une indexa-
tion de ces ressources. Des spécifications ont été proposées, comme Dublin Core [Ini04] et LOM [oEE02].
Contrairement à Dublin Core, LOM est une spécification dédiée aux ressources pédagogiques.

LOM 1.2 (Learning Object Metadata) [oEE02] est un standard qui a été proposé en 2002 par le LTSC
(Learning Technology Standards Committee)18 de l’IEEE (Institute of Electrical and Electronics En-
gineers)19 . LOM propose un modèle conceptuel de données (IEEE 1484.12.1) qui spécifie les éléments
permettant de décrire une ressource pédagogique.
LOM est une spécification souple : les éléments qu’elle comporte sont souvent facultatifs, l’éditeur de
la ressource peut donc choisir de renseigner uniquement les champs qu’il désire. Les éléments de LOM
sont regroupés en neuf catégories :
17 Sakaï,http ://sakaiproject.org/
18 LTSC, http ://ieeeltsc.org/
19 IEEE, http ://www.ieee.org/portal/site
4.3. Les efforts de standardisation 29

Fig. 4.1 – LOM : structure générale

– La catégorie Général regroupe les informations générales de la ressource telles que son identifiant,
son titre, sa langue, ainsi que des informations sur la structure de la ressource ;
– La catégorie Cycle de vie permet de gérer l’historique de la ressource en indiquant son numéro de
version, son état et les différentes contributions qui ont permis de la construire (Rôle, Entité, Date) ;
– La catégorie Méta-métadonnées définit le schéma de métadonnées utilisé, sa langue et éventuelle-
ment les modifications qui ont été apportées au schéma ;
– La catégorie Technique explicite les exigences de la ressource, sa durée de vie, sa localisation, son
format et sa taille ;
– La catégorie Pédagogique exprime certaines informations nécessaires à son utilisation dans le cadre
d’un enseignement. C’est la particularité de LOM par rapport à Dublin Core. Dans cette catégorie
sont définis d’une part le public concerné par la ressource en termes de niveau et d’âge, d’autre part
la durée et les propositions d’utilisation de la ressource ;
– La catégorie Droits explicite les conditions d’usages de la ressource tel que son coût, le droit d’auteur,
etc ;
– La catégorie Relation permet de lier plusieurs ressources entre elles. Les liens entre ressources sont
typés (est partie de, est version de, est format de, est référencée par, etc.) ;
– La catégorie Commentaire permet d’ajouter des remarques sur la ressource et donc de créer une
archive de remarques, ce qui est intéressant pour connaître les avis des utilisateurs de la ressource ;
– La catégorie Classification permet de définir la sémantique de la ressource ;
30 Chapitre 4. Un nouveau contexte pour l’évaluation : les Espaces Numériques de Travail

Il existe des adaptations ou profils de LOM tels que CanCore20 ou LOMFR proposé en 2006 par le
groupe CN36 de l’AFNOR21 . LOMFR modifie légèrement la spécification LOM en ajoutant notamment
quatre éléments :
– dans la catégorie Général apparaissent la date de référence de la ressource (date d’un événement
particulier sur la ressource : modification, publication, etc.) ainsi que le type documentaire (texte,
ressource dynamique, etc.) ;
– dans la partie Pédagogique apparaissent les éléments Activité induite et Validation des acquis. Acti-
vité induite permet de décrire très sommairement l’activité qui va utiliser la ressource (créer, animer,
s’autoformer, etc.). Validation des acquis permet d’exprimer la quantité d’unité d’enseignements ou
de crédits obtenue après avoir atteint les objectifs pédagogiques.
Dans LOM, il n’y a pas d’information sur les évaluations qui peuvent être menées grâce aux ressources.
LOMFR introduit la notion de validation des acquis, certes sommaire mais pratique pour renseigner le
résultat de l’usage de la ressource. C’est un premier pas vers la description de l’évaluation de l’apprenant.
On n’a cependant pas connaissance des critères et de la méthode d’évaluation qui permettent d’obtenir
ce résultat.

4.3.3 Organisation des contenus pédagogiques


Les contenus pédagogiques au sein de l’ENT ou des services sont organisés. Par exemple, un cours est
en rapport avec des exercices au sein d’une module d’apprentissage. C’est pour décrire cette organisation
des contenus pédagogiques, que le standard SCORM (Sharable Content Object Reference Metadata)
[ADL04a] a été développé.

SCORM 2004 est un standard d’origine américaine développé par le consortium ADL (Advanced Distri-
buted Learning)22 . Il se présente sous la forme d’un ensemble de spécifications et de normes issues du
travail d’autres organisations telles qu’IMS [Con06b] et AICC (Aviation Industry CBT Committee)23 .
Ces spécifications techniques sont actuellement regroupées selon trois catégories :
– Le modèle d’agrégation de contenu (MAC) qui décrit l’organisation des contenus ;
– L’environnement d’exécution qui permet de jouer les contenus utilisant le modèle d’agrégation de
contenu ;
– Le séquencement et la navigation (SN) qui reprennent la spécification IMS Simple Sequencing24 et
décrivent l’utilisation des contenus en une activité séquentielle ;

Fig. 4.2 – SCORM : vue d’un SCO

Le modèle d’agrégation [ADL04d] permet de décrire l’organisation des ressources pédagogiques sto-
ckées dans un entrepôt virtuel. Le MAC permet d’exprimer cette structure. Il comporte trois niveaux de
20 CanCore, http ://www.cancore.ca/fr/faq.html
21 CN36 AFNOR, http ://comelec.afnor.fr/afnor/cn36
22 ADL, http ://www.adlnet.gov/index.cfm
23 AICC, http ://www.aicc.org/
24 IMS Simple Sequencing, http ://www.imsglobal.org/simplesequencing/index.html
4.3. Les efforts de standardisation 31

données, qui établissent pour chaque composante du modèle SCORM la correspondance avec les éléments
LOM [oEE02] :
– Le premier niveau est la composante Asset, c’est la ressource multimédia de grain le plus faible. Un
Asset peut être un texte, une image, une séquence sonore, une page Web, etc.
– Le deuxième niveau est la composante SCO, c’est le grain de formation dit partageable (Sharable
Content Object) entre services éducatifs. Il contient une ou plusieurs assets (cf. figure 4.2). Il peut
être actif, c’est-à-dire jouable par l’environnement d’exécution SCORM et donc par tout service
respectant la spécification SCORM.
– Le dernier niveau est l’Agrégation de contenus, c’est-à-dire le grain de plus haut niveau. C’est le
niveau qui permet à l’enseignant de décrire l’organisation de son cours en organisant les SCO.
Chaque objet des différents niveaux du MAC (Asset, SCO, Agrégation) peut être décrit suivant la spé-
cification LOM [oEE02].

Fig. 4.3 – SCORM : principe de l’environnement d’exécution

L’environnement d’exécution [ADL04b] propose une API (Application Programming Interface) com-
posée de méthodes pouvant être utilisées par un SCO. L’API est utilisée par des SCO de type HTML ou
Flash. L’API ainsi que ses méthodes sont appelées par des fonctions javascript dans un fichier HTML.
Généralement, un SCO utilise des méthodes permettant à l’ENT de connaître le statut de la ressource
(consulté, terminé, etc), le temps passé par l’apprenant et son score. Prenons un exemple : supposons qu’un
SCO soit un exercice dont le résultat est calculé et stocké dans une variable javascript nommée MonScore.
Il est alors possible d’informer le serveur de ce résultat en utilisant la variable "cmi.core.score.raw" et la
méthode "LMSetValue" de l’API SCORM. Ce qui se traduit par :

API.LMSSetValue("cmi.core.score.raw",MonScore);

Le séquencement et la navigation (SN) [ADL04c] est assuré par la spécification IMS Simple Sequen-
cing25 qui permet de scénariser de manière séquentielle l’usage d’un agrégat de SCO.
Du point de vue de l’évaluation, SCORM ne permet pas de décrire l’action d’évaluer qui va être
réalisée avec les contenus agrégés. Cependant, la gestion de la communication entre SCO et le moteur
d’exécution fixe un cadre qui n’existait pas jusqu’à présent. En définissant des méthodes et une interface
de programmation, il est possible de communiquer les résultats obtenus par un apprenant lors de la
correction d’un questionnaire. En outre, SCORM envisage l’intégration des contenus mais pas des services
dans l’ENT. C’est une vision complémentaire des initiatives qui s’intéressent à l’intégration de services
(telle que celle vue en 4.3.1).

25 IMS Simple Sequencing, http ://www.imsglobal.org/simplesequencing/index.html


32 Chapitre 4. Un nouveau contexte pour l’évaluation : les Espaces Numériques de Travail

4.3.4 Construction des contenus pédagogiques


LOM [oEE02] permet de décrire les contenus pédagogiques et SCORM [ADL04a] de les organiser mais
comment les exprimer ? Certes, il existe toujours HTML et Flash pour les contenus statiques, qu’en est-il
des contenus dynamiques ? Comment assurer leur réutilisabilité d’une plateforme à l’autre ? La solution
vient de la standardisation et notamment d’IMS-QTI [Con05b].

IMS Question and Test Interoperability (IMS-QTI) [Con05b] est issu des travaux de l’organisation IMS
Global Learning Consortium [Con06b] dont le but est de promouvoir le développement de l’apprentissage
collaboratif et coopératif à distance. En s’appuyant sur le langage XML [Rec04], IMS-QTI spécifie un
modèle de représentation de questions (assessmentItem) et de questionnaires (assessment). Une première
version de IMS-QTI a été développée dès 1999 et rendue publique en 2000. Dès lors, IMS-QTI n’a cessé
d’évoluer jusqu’en janvier 2006, date qui marque l’arrivée de la version 2.1.

Le formalisme IMS-QTI est conçu pour permettre l’échange de questionnaires entre différents organismes
de formation (universités, sociétés de e-learning, etc.). IMS-QTI répond donc fortement à une probléma-
tique d’interopérabilité et ce, en proposant différents schémas XML pour exprimer des questionnaires.
Cette spécification permet de créer des banques de questionnaires pouvant être réutilisés et échangés par
un grand nombre de prestataires de formation à distance (FOAD). Pour l’apprenant, ces questionnaires
prennent bien souvent la forme d’un questionnaire à choix multiples constitué d’une liste de questions
fermées, drag and drop, tableaux de correspondance, etc. Grâce à IMS-QTI, il est possible de décrire
la manière dont sont comptabilisés les points, ainsi qu’une correction en cas d’erreur de l’apprenant.
IMS-QTI prend aussi en compte la gestion de l’aléatoire dans le tirage des valeurs contenues dans les
énoncés.

Fig. 4.4 – IMS-QTI : le modèle des quatre processus

IMS-QTI est basé sur le modèle des quatre processus [ASM03], qui organise le cycle de vie d’un test
en quatre processus distincts :
– le processus de sélection du questionnaire dans un banque de questionnaires,
– le processus de création de questionnaires avec des outils auteurs ;
– le processus de soumission du questionnaire aux apprenants dans l’ENT offert par un service en
charge de présenter les questionnaires aux apprenants ;
4.3. Les efforts de standardisation 33

– et enfin, le processus de correction des réponses des apprenants, réalisé par le moteur d’exécution
de questions.
Dans ce cycle de vie, l’enseignant occupe une place centrale. Des outils auteurs ont été développés pour
lui permettre de créer des questionnaires (Respondus 26 , etc.) et de les jouer (QPlayer27 , etc.) dans un
ENT.

Les outils auteurs permettent de s’abstraire du langage IMS-QTI dont la manipulation nécessite une
bonne connaissance de la spécification. Cette spécification suit le modèle ASI pour "Assessment Section
Item". L’élément Assessment exprime un questionnaire constitué d’ensembles de questions appelés "Sec-
tion" et constitués de questions dénommées "Item".

Parfois qualifié de langage d’évaluation [Van03], IMS-QTI est avant tout un excellent langage de des-
cription de questionnaires. Ses spécifications étant largement répandues, IMS-QTI apparaît aujourd’hui
comme un standard de fait, implémenté dans les plus grands ENT éducatifs tels que Sakaï28 , WebCT29 ,
Moodle30 , etc.

Un bémol : dans la plupart des outils auteurs et des moteurs d’exécution IMS-QTI, toutes les fonc-
tionnalités décrites dans la spécification ne sont pas implémentées [Gor03]. En outre, la spécification
IMS-QTI n’est pas figée et les questionnaires exprimés dans des versions antérieures ne sont plus toujours
valides dans les nouvelles (passage de IMS-QTI 1.2 à IMS-QTI 2.1 par exemple).

Par ailleurs, IMS-QTI intègre une vision sommative de l’évaluation. Certes le créateur de questionnaires
est libre de créer ses questionnaires et de définir un barème de correction, mais il n’est pas libre de choisir
la manière dont il veut évaluer le questionnaire. Il n’est pas possible de proposer aux élèves de s’auto-
évaluer, cette forme d’évaluation n’est pas supportée par les moteurs d’exécution de questionnaires.

4.3.5 Expression des résultats


Dans l’ENT, différents services et outils doivent dialoguer entre eux. Par exemple, dans le cadre d’un
portail universitaire, le service de scolarité doit connaître les résultats des examens passés par les appre-
nants. Autre exemple : l’enseignant doit avoir accès dans son carnet de bord aux résultats de ses élèves.
Se pose donc la question du format des résultats, qui doit être identique à tous les services de l’ENT
pour assurer l’interopérabilité. Mais comment sont obtenus ces résultats ? Et quels sont les formalismes
qui permettent de les exprimer ?

La question du recueil des résultats d’un apprenant dans une activité est centrale. Plus largement de
nombreux scientifiques dépassent le cadre du résultat pour essayer de s’intéresser à toutes les traces
produites par un participant lors d’une activité [Dia06] [BC05a] [BC05b]. Une trace d’apprentissage est
[DLL+ 05] "un indice de l’activité d’acteurs dans une situation d’apprentissage instrumentée ou pas. Une
trace d’apprentissage peut aussi bien être un résultat obtenu pendant ou en fin d’activité, mais aussi un
événement relatif ou un ensemble d’événements relatifs à la progression dans l’EIAH". Une trace peut être
recueillie soit par une machine soit par un humain. Ensuite, cette trace est structurée dans un formalisme
pouvant être utilisé pour réguler, évaluer et observer l’activité des apprenants [DLL+ 05].

26 Respondus, http ://www.respondus.com/


27 QPlayer, http ://www.e-teach.ch/qplayer
28 Sakaï project : http ://www.sakaiproject.org/
29 WebCT : http ://www.webct.com/
30 Moodle : http ://moodle.org/
34 Chapitre 4. Un nouveau contexte pour l’évaluation : les Espaces Numériques de Travail

Fig. 4.5 – Processus d’utilisation de traces

Le processus de collecte et d’utilisation de traces d’apprentissage se décline en trois phases successives


[DLL+ 05] :
– la collecte des traces, qui peut par exemple se faire à partir de fichiers de "log" issus de l’application
dans laquelle se déroule l’activité [HFM04] [HMFC05] [Dia06] ;
– la structuration des traces. Une fois collectées, les traces doivent être exprimées dans un format qui
permet leur exploitation [IBC04] [IC05] ;
– l’analyse (régulation, évaluation, observation, etc.) des traces structurées, aussi appelées indicateurs
d’apprentissage.

Ce processus s’inscrit bien souvent dans un modèle de traces qui en formalise les différentes étapes. Il
existe différents modèles de traces, plus ou moins spécialisés selon les types de traces qu’ils permettent
d’exprimer. Par exemple, le modèle MUSETTE (Modelling USEs and Tasks for Tracing Experience)
[CPM03] propose la récupération de traces issues de la navigation d’un utilisateur dans un EIAH. Le
modèle Trèfle [EZMPP02] vise à capitaliser des traces d’utilisation et à les exploiter afin d’assister l’uti-
lisateur dans sa navigation. D’autres modèles abordent la question de la supervision des activités dans le
contexte d’activités d’apprentissage, et ce en intégrant des notions plus adaptées à ce contexte particulier.
Le modèle MTSA (Modèle de Trace pour la Supervision de l’Apprentissage) [Dia06] vise à exprimer des
indicateurs d’activité, des indicateurs sociaux et cognitifs pour permettre à l’enseignant de superviser une
activité d’apprentissage. Ce modèle permet la structuration de traces issues de fichiers de "log" relatives
aux actions et aux productions des apprenants.

Cependant, bien des EIAH (FORMID [GAP+ 04], TDmaths31 , etc.) offrent directement des résultats
sans qu’il soit nécessaire de structurer ces indicateurs d’apprentissage à partir de traces de plus bas ni-
veau [Dia06]. En outre, certains formalismes permettent d’exprimer directement les résultats issus des
services de l’ENT. C’est le cas par exemple des formalismes IMS-QTI Result Reporting [Con05c] et IMS-
LIP [Con05a].

IMS-QTI Result Reporting version 1.2 [Con05c] est une proposition de format pour exprimer les ré-
sultats d’un apprenant à un test constitué de questions IMS-QTI. Cette proposition est peu décrite en
dehors des schémas et exemples disponibles sur le site d’IMS32 . Elle s’appuie sur la structure ASI (Assess-
ment Section Item) d’IMS-QTI qui veut qu’un assessment se partage en sections et que chaque section
se compose d’une suite de questions appelées items.

IMS-LIP (Learner Information Package) [Con05a] est un formalisme qui permet d’exprimer une collection
d’informations ou profil, sur un apprenant ou sur un créateur de contenus pédagogiques. Le but de cette
spécification est de définir un formalisme d’échange de profils entre systèmes éducatifs. La sous-structure
31 Site de TDmaths, http ://www.tdmaths.com/
32 IMS, http ://www.imsproject.org/
4.4. Synthèse 35

de ce formalisme qui nous intéresse particulièrement est la sous-structure évaluation, qui exprime des
résultats.

Dans ces deux formalismes, un résultat est systématiquement issu d’un questionnaire de type IMS-QTI.
Mais durant une activité pédagogique, d’autres résultats peuvent être produits. Par exemple dans le
contexte d’un logiciel de simulation tel que TPLec [CGA+ 88], l’apprenant réalise un schéma électrique.
Le schéma produit est bien un résultat de l’activité de l’apprenant. Les deux formalismes introduits ci-
dessus ne permettent pas d’exprimer le résultat de cette action.

Les approches de recueil et de traitement de traces issues de fichiers de "log" sont symptomatiques
de la difficulté de standardiser l’expression des résultats en EIAH. En effet, les formalismes d’expression
de résultats proposés (IMS-QTI Result Reporting et IMS-LIP) ne permettent pas de traduire toute la pa-
lette des résultats divers existants dans les services de l’ENT. Si nous disposions d’un formalisme unique
et exhaustif d’expression des résultats, alors ces services pourraient directement produire des résultats
exploitables et réutilisables par d’autres services de l’ENT.

4.4 Synthèse
L’effort de standardisation nécessaire à l’intégration, dans l’ENT, des services offerts par les EIAH, est
certain. Cette intégration vise à l’utilisation dans un ENT de services intégrés dynamiquement, choisis à
la carte et sélectionnés selon les besoins de chaque utilisateur. A cette fin, des moteurs de recherche et de
téléchargement de services sont en cours d’élaboration. Par exemple, LionShare 33 assiste les utilisateurs
dans la construction de leur espace au sein de l’ENT. Jusque-là prisonnier des fonctionnalités de l’EIAH,
l’enseignant aura dans un futur proche le choix des services qu’il souhaitera utiliser ou non dans l’ENT.
Mais comme nous l’avons vu lors de l’étude des formalismes de résultats, il reste encore des verrous.
L’expression d’un formalisme de résultats standardisé est primordiale dans l’optique de l’évaluation.
Certes, ce n’est pas parce qu’un formalisme de résultats existera que les enseignants pourront évaluer
les apprenants à leur guise. Mais le formalisme de résultats permettra de réutiliser les résultats produits
et évalués par les services pédagogiques dans d’autres services tels que ceux d’assistance à l’évaluation
(cf. 3.2.6), et de scolarité, etc. Il sera alors possible de choisir l’usage des résultats obtenus et de leur
évaluation en fonction des services disponibles.

4.5 L’émergence des Langages de Modélisation Pédagogiques (LMP)


L’effort de standardisation dans les ENT s’est accompagné d’une réflexion sur les activités qu’ils sup-
portent. En permettant l’intégration de nombreux services, les ENT décuplent les possibilités d’activités
différentes qui peuvent être élaborées par l’enseignant. Traditionnellement, l’enseignant est habitué à
planifier les activités qu’il propose en classe à ses élèves. C’est donc tout naturellement que le besoin
de scénariser les activités dans les ENT s’est fait sentir, donnant lieu à des propositions en matière de
Langages de Modélisation Pédagogique (LMP). Les LMP décrivent dans un scénario, une activité d’ap-
prentissage envisagée par l’enseignant. Ce scénario est ensuite opérationnalisé et joué par un moteur de
scénarios en utilisant les ressources d’un ENT cible.

33 LionShare, http ://lionshare.its.psu.edu/


36 Chapitre 4. Un nouveau contexte pour l’évaluation : les Espaces Numériques de Travail
Chapitre 5

L’évaluation et les Langages de


Modélisation Pédagogique

5.1 Introduction
Les langages de modélisation pédagogique et les outils qui les accompagnent permettent de décrire
et de jouer des activités pédagogiques utilisant des services et des contenus numériques. L’état de l’art
a montré que l’évaluation est un moyen de mesurer les progrès des élèves, mais également un moyen
de donner aux élèves l’envie de réussir et d’apprendre. Comme l’activité cognitive qu’elle sert à évaluer,
l’évaluation fait partie de la pédagogie et, en tant que telle, peut être pensée par l’enseignant comme
un des moyens de sa pédagogie. L’évaluation doit donc pouvoir être descriptible dans un scénario d’ap-
prentissage structuré par un langage de modélisation pédagogique. Certes, la scénarisation ne règle pas
le problème de l’expression de la diversité des résultats (cf. 4.4) mais elle pourrait augmenter la latitude
d’action de l’enseignant. Il aurait par ce moyen la capacité de spécifier et de contrôler les évaluations qu’il
désire mener.

Dans ce chapitre, nous nous attacherons d’abord à définir le concept de scénario avant d’en expliquer le
cycle de vie dans le contexte informatique. Nous présenterons ensuite les principaux LMP ainsi que les
outils et démarches qui les accompagnent. Enfin, nous étudierons la place réservée à l’évaluation dans
la scénarisation par les différents langages considérés. Ce point particulier sera abordé à travers un cas
d’étude traité par les principaux acteurs scientifiques du domaine.

5.2 La scénarisation des activités pédagogiques


5.2.1 Qu’est ce qu’un scénario pédagogique
La notion de scénario prête à discussion dans le contexte éducatif. De la simple préparation de classe à
la description détaillée du plan d’une séquence pédagogique, en passant par l’énoncé d’un travail proposé
aux élèves, nombreuses sont les productions des enseignants qui s’apparentent à un "scénario", c’est-à-
dire à la prédiction/prescription du déroulement d’une future activité.

Les chercheurs en EIAH qui s’intéressent à cette notion s’accordent généralement pour considérer qu’un
scénario pédagogique n’est rien d’autre que la spécification d’une future activité pédagogique telle qu’elle
se déroulera en présentiel ou à distance au moyen des outils informatiques. Plus précisément, un scénario
pédagogique exprime une « description du déroulement d’une situation d’apprentissage en termes de rôles,
d’activités et d’environnements nécessaire à sa mise en oeuvre, mais aussi en termes de connaissances
manipulées »[Per03]. Le scénario est vu comme une spécification car il va guider le déroulement de l’ac-
tivité dans l’environnement informatique pour lequel il a été pensé et conçu. Certains chercheurs comme
Dillenbourg [Dil03] ou O’Donnell et Dansereau [OD92] préfèrent au mot "scénario" le mot script, plus

37
38 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

proche de la notion de spécification.

Ce passage d’un simple "texte" décrivant l’activité au déroulement de cette activité s’opère par une
série de transformations qui opérationnalisent le scénario dans le contexte informatique sélectionné, sur
un ensemble de services et de contenus numériques.
Plus précisément, l’opérationnalisation du scénario consiste à :
– choisir les participants de l’activité en fonction des critères établis par le scénario ;
– attribuer aux participants les rôles prévus par le scénario ;
– sélectionner les services et contenus dont l’usage est prévu par le scénario dans une infrastructure
d’exécution cible.
L’exécution du scénario précédemment opérationnalisé permet à chaque participant de "jouer" ce
scénario, c’est-à-dire d’interagir avec les autres participants par l’intermédiaire d’un player.

En tant que tel, le scénario n’est qu’un système de notation arbitraire, utilisant généralement le for-
mat XML, destiné à décrire dans les termes les plus indépendants possibles du contexte de son exécution,
la future activité projetée par l’auteur du scénario. La production du scénario repose sur la construc-
tion du modèle conceptuel d’une activité pédagogique, à partir d’un métamodèle qui établit l’ensemble
des concepts et des relations inter-concepts utiles à leur description et à leur modélisation de l’activité
[MVFD06].

Plusieurs propositions issues des travaux en EIAH donnent une réalité concrète à ce concept de scé-
nario : IMS-LD [Con03], LDL [MVFD06], CPM [LNS05], MOT+ [PLLC+ 06], etc.

5.2.2 Conception d’un scénario pédagogique


De manière analogue à la conception d’un logiciel, la conception d’un scénario pédagogique s’inscrit
dans un cycle de vie.
Selon Pernin[Per03], le cycle de vie d’un scénario pédagogique se décompose en trois étapes :
– déterminer les connaissances et enjeux d’apprentissage et leurs règles d’acquisition afin de concevoir
le scénario de la situation d’apprentissage. Dans l’idéal le scénario est alors exprimé dans un langage
de modélisation pédagogique [Con03] ;
– mettre en oeuvre la situation d’apprentissage scénarisée et l’observer dans un dispositif d’exécution
[Cop04] ;
– évaluer le scénario pour pouvoir mieux le réutiliser.
Comme nous l’avons indiqué, certains chercheurs [LP04] différencient la spécification du scénario
prédictif (vue prédictive de l’activité qui va se réaliser), du scénario prescriptif (prescription d’une activité
aux participants) et du scénario descriptif (spécification de ce qui s’est déroulé). Mais le cycle de vie d’un
scénario peut aussi être abordé sous l’angle de l’ingénierie dirigée par les modèles, en particulier à partir
du modèle Model Driven Architecture (MDA) de l’Object Management Group (OMG)34 [BG01]. Dans ce
modèle, le scénario se traduit par un modèle indépendant de l’infrastructure de scénarisation (Platform
Independant Model : PIM). Ce modèle après opérationnalisation dans l’infrastructure devient alors un
modèle spécifique (Platform Specific Model). L’infrastructure étant spécifiée par un modèle de description
spécifique (Platform Description Model : PDM) [FLVD05].

5.3 Les Langages de Modélisation pédagogique


Il existe actuellement un certain nombre de LMP, dont les plus connus sont :
– IMS-LD [Con03] qui est historiquement le plus connu et le plus médiatisé ;
– LDL [MVFD06] qui s’annonce comme une alternative française à IMS-LD [MVF+ 06b].
Dans la suite, nous décrivons ces langages, puis les outils auteur et infrastructures de scénarisation qui
les accompagnent.
34 OMG, http ://www.omg.org/
5.3. Les Langages de Modélisation pédagogique 39

5.3.1 IMS-LD
Introduction

La spécification IMS Learning Design (IMS-LD)[Con03] est issue des travaux de l’Université Ou-
verte des Pays-Bas portant sur les langages de modélisation de l’apprentissage (Educational Modelling
Language : EML). IMS-LD fournit une infrastructure d’éléments capables de décrire des activités d’en-
seignement de manière formelle en XML. IMS-LD propose trois niveaux de description d’une activité
pédagogique :
– un niveau A qui contient les éléments de base de la spécification ;
– un niveau B qui ajoute au niveau A des propriétés et des conditions permettant de spécifier les
conditions de progression d’une activité ;
– un niveau C qui ajoute au niveau B la notification, par exemple avertir l’enseignant de l’arrêt d’une
activité.
Dans la suite, nous nous attacherons presque essentiellement au niveau A.

Présentation

Fig. 5.1 – IMS-LD : Métamodèle simplifié

Les principaux éléments du métamodèle sont les objets activity, role, environment et method.

Activity
Les activités (objet activity) décrivent l’ensemble des activités proposées et définissables dans le modèle.
Chaque activité est liée à un environnement (objet environment).
Pour chaque activité est spécifiée une condition d’arrêt (durée, obtention d’un résultat, choix de
l’utilisateur). Il existe deux types d’activités :
– Les activités d’apprentissage (learning activities) sont dirigées par des objectifs à atteindre. Elles
sont constituées principalement d’une description du travail à réaliser et de liens avec un ou plusieurs
environnements de travail ;
– Les activités de support (support activities) peuvent par exemple être des activités de correction
de devoir ou d’aide pour des étudiants en difficultés.
40 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Les activités peuvent être assemblées dans des activity-structures. Ces structures d’activités agrègent
un ensemble d’activités en une seule structure qui peut être associée à un rôle (objet role). Une structure
peut modéliser une séquence ou une sélection d’activités. Dans une séquence, un rôle doit réaliser complè-
tement les différentes activités de la structure dans l’ordre indiqué, alors que dans une sélection, un rôle
peut sélectionner un certain nombre d’activités parmi celles de la structure. Une structure d’activités peut
aussi également référencer d’autres structures d’activités, de même qu’un ou plusieurs environnements.
Une activité possède des objectifs pédagogiques (learning objectives). Ces objectifs pédagogiques re-
présentent les buts à atteindre par l’apprenant qui réalise les activités.

<imsld:activities>
<imsld:learning-activity identifier="AA1" type="Learning activity">
<imsld:environment-ref ref="E-Text"/>
<imsld:activity-description>
<imsld:title>Lire les consignes</imsld:title>
</imsld:activity-description>
<imsld:complete-activity>
<imsld:user-choice/>
</imsld:complete-activity>
</imsld:learning-activity>
</imsld:activities>

Ci-dessus, la description dans le langage XML d’une activité de type Learning activity qui consiste à
lire des consignes.

Role
Il est possible de créer des rôles (objet role) de deux types : learner et staff. Learner étant réservé aux
rôles d’apprenants et staff aux managers de l’activité. Il est possible d’imbriquer les rôles.

<imsld:roles>
<imsld:learner identifier="R-Group" type="Learner">
<imsld:learner identifier="Leader" type="Learner" />
<imsld:learner identifier="Member" type="Learner" />
</imsld:learner>
</imsld:roles>

Ci-dessus l’expression du rôle de Groupe "R-Group" constitué des rôles "Leader" et "Member".

Environment
L’environnement (objet environment) contient une collection structurée d’objets pédagogiques (docu-
ments texte, pages WEB, etc.) et de services (chat, forum, etc.) appropriés qui vont être utilisés pour la
réalisation des activités.
Les objets pédagogiques sont les différentes ressources numériques ou non, manipulées dans les activi-
tés. Elles sont généralement classées en utilisant le système de métadonnées LOM [oEE02]. On trouvera
par exemple des questionnaires [Con05b], mais aussi des listes de documents comme un document word,
une image gif, etc.
Les services peuvent être de trois types : forum de discussion, outil de communication synchrone (chat)
ou outil de recherche. Ces services sont des ressources dont l’URL n’est pas donnée lors de la conception
mais dont les caractéristiques sont spécifiées. C’est la plate-forme d’exécution qui se chargera de mettre
en oeuvre les outils adéquats.

<imsld:environments>
<!-- l’afficheur de l’énoncé -->
<imsld:environment identifier="E-Text">
<imsld:title>liste de consignes</imsld:title>
<imsld:learning-object identifier="T-Text">
5.3. Les Langages de Modélisation pédagogique 41

<imsld:role-ref ref="R-Group"/>
<imsld:title>La question </imsld:title>
</imsld:learning-object>
</imsld:environment>
</imsld:environments>

Ci-dessus l’expression de l’environnement "E-Text" qui est composé de l’objet pédagogique T-Text asso-
cié au rôle "R-Group".

Method
L’élément méthode (objet method ) permet de scénariser enfin l’activité à partir des descriptions fournies
par les objets définis précédemment. C’est à ce niveau qu’apparaît une singularité forte d’IMS-LD :
l’utilisation de la métaphore théâtrale pour décrire le déroulement de l’activité. L’élément method contient
différentes séquences (play). Chaque séquence est constituée d’un ou plusieurs actes. Dans chaque acte,
l’objet role-part associe aux activités (objet activity-structure ou activity) des rôles (objet role). Le
déroulement des activités, actes, séquences peut être spécifié par des conditions (niveau B).

<imsld:method>
<imsld:play>
<imsld:act>
<imsld:role-part>
<imsld:role-ref ref="R-Group"/>
<imsld:activity-structure-ref ref="AA1"/>
</imsld:role-part>
<imsld:role-part>
<imsld:role-ref ref="R-Group"/>
<imsld:learning-activity-ref ref="STR1"/>
</imsld:role-part>
</imsld:act>
</imsld:play>
<imsld:conditions>
<imsld:if>
<imsld:complete>
<imsld:learning-activity-ref ref="AA1"/>
</imsld:complete>
</imsld:if>
<imsld:then>
<imsld:show>
<imsld:activity-structure-ref ref="STR1"/>
</imsld:show>
</imsld:then>
</imsld:conditions>
</imsld:method>

Ci-dessus l’expression d’une méthode composée d’un acte durant lequel est joué l’activité "AA1" et la
structure "STR1" par le rôle R-Group. Une condition précise que la structure "STR1" ne peut être jouée
avant que l’activité "AA1" soit terminée.

L’évaluation dans IMS-LD


L’évaluation dans IMS-LD n’a pas une place explicite. Le langage permet de spécifier une activité
d’apprentissage mais pas son évaluation. En particulier, il manque au langage la possibilité de spécifier
les résultats produits par les services et objets pédagogiques durant l’activité.
42 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

<imsld:locpers-property identifier="exemple">
<imsld:title>Résultat du test</imsld:title>
<imsld:datatype datatype="integer"/>
<imsld:initial-value>0</imsld:initial-value>
</imsld:locpers-property>

Une première proposition en ce sens a été faite en 2006 [VMT+ 06] en s’appuyant sur la notion de propriété
du niveau B (ci-dessus l’expression d’une propriété exprimant un résultat). La proposition est cependant
spécifique à un seul type de résultats : les scores obtenus par les apprenants dans un questionnaire
IMS-QTI. Nous étudions plus en détail en 5.6.1 cette proposition.

Discussion
IMS-LD est un langage permettant d’exprimer des activités pédagogiques complexes. Les concepteurs
de ce langage l’ont développé en le voulant le plus complet possible [Con03]. Le résultat est une spé-
cification complexe qui comporte un grand nombre d’éléments. Il est donc délicat d’écrire un scénario
directement dans ce langage sans outil auteur. Du point de vue de l’évaluation, IMS-LD ne permet pas de
mener des évaluations mais d’utiliser des résultats d’évaluation. Pour l’heure, seule l’obtention de scores
provenant de questionnaires a été implémentée dans l’infrastructure CopperCore [Cop04]. IMS-LD adopte
une "culture de testing" [BBK04] et non d’évaluation telle que nous l’entendons, c’est à dire dans ses
formes les plus diverses telles que celles précédemment rencontrées en EIAH.

5.3.2 LDL

Fig. 5.2 – LDL : Métamodèle simplifié

Introduction
Depuis 2003, les équipes Scénario du laboratoire SysCom35 (Systèmes Communicants) de l’Université
de Savoie, ARCADE36 (Ateliers de Réalisation et de Conception d’Applications Destinées à l’Education)
du CLIPS-IMAG de l’Université de Grenoble et la société Pentila ont décidé de mettre en commun leurs
travaux dans le domaine de l’approche par scénarios pédagogiques dans le cadre du projet SceClasse. Le
but de ce projet est de fournir aux enseignants concepteurs les moyens de produire des scénarios collabo-
ratifs pour leurs classes, sous une forme réutilisable et partageable, mais aussi opérationnalisable au sein
35 SysCom, http ://www.syscom.univ-savoie.fr/
36 ARCADE, http ://www-clips.imag.fr/arcade/
5.3. Les Langages de Modélisation pédagogique 43

d’un ENT. Ce travail a conduit à l’élaboration d’un langage pour exprimer ces scénarios : LDL ("Lear-
ning Design Language"), et une infrastructure pour se charger de l’opérationnalisation des scénarios :
LDI ("Learning Design Infrastructure") [FLVD05]. Ce langage repose sur un paradigme organisationnel
particulier appelé modèle de participation [Mar98].

Le modèle de participation
Le modèle de participation [Mar98] est constitué de différents concepts qui permettent de modéliser
ce que doit être une activité collaborative.

L’enceinte
L’enceinte est un espace partagé par des acteurs qui souhaitent participer à une activité coopérative.
C’est le lieu virtuel dans lequel ces acteurs vont pouvoir partager des documents (ou plus globalement
des objets, des outils) en réalisant différentes activités qui doivent être régies par des règles négociées et
acceptées par les différents membres. L’enceinte doit être perçue comme un contenant complexe.

Les acteurs et les rôles


Les acteurs représentent les membres actifs (ou passifs) qui participent à l’activité de l’enceinte. Dans
une enceinte, les acteurs acquièrent différentes caractéristiques et propriétés suivant les différentes étapes
du cycle de vie de l’enceinte (construction de l’enceinte, déroulement de l’activité, etc.) à laquelle ils sont
rattachés. On distingue principalement deux types de caractéristiques :
– Les caractéristiques statiques qui ont la particularité d’être valides par défaut, indépendamment du
déroulement de l’activité au sein de l’enceinte. On trouve parmi celles-ci : Les statuts qui définissent
la position sociale objective d’un acteur au sein d’une enceinte. Implicitement le statut identifie les
invariants organisationnels au sein de l’enceinte. Les rôles thématiques qui caractérisent les missions
principales des acteurs. Un acteur peut bien entendu posséder plusieurs rôles thématiques ;
– Les caractéristiques dynamiques sont acquises au cours du déroulement de l’activité en fonction des
mécanismes de régulation établis. Ces caractéristiques sont essentiellement représentées par deux
entités : Les rôles actanciels identifient les actions potentielles réalisables par les acteurs au sein
d’une activité. Ces rôles définissent une granularité d’action qui résume la capacité d’agir dont
dispose un acteur à un moment donné et dans un contexte spécifique. Les positions caractérisent
l’expression subjective des acteurs sur les différents artefacts présents dans une enceinte (acteurs,
relations, etc.).
Le fait de lier un acteur à un rôle thématique permet d’acquérir une capacité par défaut représentée
par un ensemble de rôles actanciels. Ces rôles actanciels ne sont donc pas acquis dynamiquement, mais
de façon implicite par la mission globale confiée à un acteur.

Les positions
Les positions ont pour but de décrire et de qualifier les relations entre les acteurs d’une enceinte. Elles
correspondent à une expression qualitative exprimée par un acteur sur lui-même ou sur un autre acteur.
La position est un point de vue personnel exprimé par un acteur qui ne souhaite pas forcément que
celle-ci soit connue des autres membres de l’enceinte. Au contraire, dans certains cas, cette même personne
souhaitera exprimer une position qui doit être connue des autres acteurs. Un acteur peut donc exprimer
différentes positions :
– sa position par rapport aux membres du groupe et sur le groupe lui même. Par exemple un acteur
peut définir avec quel autre membre il préfère collaborer ;
– ou encore pour l’utilisateur qui appartient à différents groupes, certains de ses groupes sont plus
importants que d’autres. Par exemple, il peut être membre d’un groupe de travail dont les activités
sont très importantes et d’un groupe consacré aux loisirs et dont l’importance est moindre ;
– sa position par rapport aux objets de l’enceinte. Il peut définir un ensemble de préférences, comme
par exemple son éditeur de texte préféré ;
– sa disponibilité. En d’autres termes, les créneaux disponibles dans son agenda, mais également sa
disponibilité pour une activité. Par exemple, si un utilisateur se considère expert dans l’utilisation
d’un outil, il peut se définir comme disponible pour aider ceux qui sont débutants.
44 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Les objets et les outils


Les objets constituent les éléments manipulés par les acteurs, qui résultent directement de l’activité au
sein de l’enceinte. Ces objets sont bien entendu caractérisés par le type de l’activité. Par exemple dans
une activité de rédaction conjointe d’un article, l’objet principal est le document. Dans un outil de dessin
collaboratif, l’objet principal est le dessin.
En lien direct avec les objets manipulés, les outils représentent l’ensemble des moyens permettant
d’agir de façon directe ou indirecte sur ces objets. Chaque outil possède un ensemble d’actions élémen-
taires. Dans un outil de dessin collaboratif, il est possible de gommer, de dessiner, de couper, de coller, etc.

Les scénarios
Un scénario est un ensemble d’actions à réaliser en vue de réguler une activité coopérative conformément
à des règles établies ou admises par l’ensemble des participants. Dans l’outil de dessin collaboratif, un scé-
nario régit l’utilisation de la gomme afin d’éviter qu’une personne efface le travail des autres. Ainsi, avant
de pouvoir gommer, l’usager devra demander la permission à un responsable qui lui donnera ou pas l’au-
torisation de gommer. C’est seulement après avoir exécuté ce scénario que l’usager pourra éventuellement
gommer. On dit alors que l’action "gommer" est régulée.

Le langage LDL
Le langage LDL reprend la plupart des éléments du modèle de participation dont les concepts sont
remaniés, en particulier ceux de position et d’enceinte. Dans LDL, les objets et outils utilisés durant
une activité deviennent des enceintes. De ce fait, une position peut aussi porter sur une enceinte. Comme
nous pouvons le voir dans ce qui suit, LDL prend d’autres libertés par rapport au modèle de participation.

Scenario
Il s’agit du scénario, l’objet racine contenant la description des rôles (roles), des interactions (interac-
tions), des structures (structures), des enceintes (enceintes), des positions (positions), des règles (rules),
ainsi qu’un ensemble de métadonnées (metadonnees).

<Scenario>
<metadonnees/>
<roles/>
<enceintes/>
<interactions/>
<structures/>
<rules/>
<positions/>
</Scenario>

Ci-dessus, figurent les principaux éléments de LDL.

Enceinte
Il s’agit du lieu dans lequel se déroule une interaction. Une enceinte est typée et peut représenter ainsi
les environnements suivants :
– les enceintes de type conteneur pouvant accueillir d’autres enceintes (type folder ) ;
– les enceintes de type contenu pouvant décrire des fichiers, des images ou autre (type file) ;
– les enceintes de type service pouvant décrire tout service utilisable comme un outil de discussion
ou un outil de recherche (type service).
L’inclusion d’enceintes au sein d’autres enceintes est possible si leur type le permet. Voici un exemple
d’enceinte de type fichier.

<enceintes>
<Enceinte id="les_consignes" kindOfEnceinte="file">
<title>les consignes de l activite</title>
5.3. Les Langages de Modélisation pédagogique 45

<description>Texte contenant les consignes de l activite</description>


</Enceinte>
...
Role
Les objets Role représentent les différents acteurs qui évoluent dans l’activité. Ils permettent entre autres
la liaison entre les utilisateurs et les interactions à réaliser.
<roles>
<Role id="professeur">
<title>Professeur</title>
</Role>
...
Interaction
Une interaction est un schéma d’action entre deux ou plusieurs acteurs. Il s’agit de la brique de base
principale des scénarios car elle représente les activités en tant que telles. Une interaction possède un
attribut action qui décrit la nature de celle-ci. Les actions sont par exemple : lire, créer texte, supprimer
fichier, dialoguer. Une interaction est associée à :
– des rôles qui sont les acteurs réalisant l’interaction (destinateur ) ou les acteurs destinataires (des-
tinataire) de l’interaction ;
– des enceintes qui sont les environnements dans lesquels l’interaction doit avoir lieu ;
– une règle terminateOn qui permet de définir la condition de terminaison de l’interaction ;
– une règle startOn de commencement de l’interaction.
Une interaction peut conduire éventuellement à la production d’un résultat qui peut être soit une posi-
tion soit une nouvelle enceinte. Une interaction peut être réalisée par le système lui-même. Le destinateur
de l’interaction est alors « System ». Les interactions possibles de ce type sont prédéfinies et limitées. Il
est ainsi possible de demander au système de changer la valeur d’une position, notifier un utilisateur,
avertir un utilisateur ou démarrer une nouvelle interaction (l’arrêt est aussi possible).
<Interaction id="I_lire_consigne">
<action>Tu peux rédiger un paragraphe</action>
<dans>le_livre</dans>
<destinateurs>
<role>eleve</role>
</destinateurs>
<destinataires>
<role>professeur</role>
</destinataires>
<results/>
<startOn>
<Rule id="111">
.....
</Rule>
</startOn>
<terminateOn>
<Rule id="112">
.....
</Rule>
</terminateOn>
</Interaction>
Ci-dessus, l’expression d’une interaction qui propose aux élèves de rédiger un paragraphe dans un livre.

Structure
Une structure définit l’enchaînement entre deux ou plusieurs interactions suivant une règle définie par
46 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

l’un de ses attributs (attribut kindOfStructure). Une structure peut contenir aussi d’autres structures et
former ainsi des enchaînements plus complexes. Sont définis trois types de structure possibles :
– sequence : Exécute de manière séquentielle la liste des interactions qu’elle contient ;
– selection : L’utilisateur peut exécuter au choix les interactions qu’il désire mais il doit avoir réalisé
l’ensemble de celles-ci pour sortir de la structure ;
– all : L’utilisateur a la possibilité de voir toutes les interactions, mais l’exécution de l’une d’elles
cachera toute les autres jusqu’à la terminaison de l’interaction en cours.
Les structures contiennent seulement les identifiants des interactions. Elles ne contiennent pas la définition
des interactions elles-mêmes. Comme les interactions, les structures possèdent une règle de commencement
et une règle de terminaison.

<structures>
<Structure id="Structure_principale" kindOfStructure="sequence">
<startOn/>
<Structure id="Structure_secondaire_1" kindOfStructure="selection">
<startOn/>
<interaction_id>I_lire_consigne</interaction_id>
</Structure>
<Structure id="Structure_secondaire_2" kindOfStructure="selection">
....
....

Ci-dessus, l’expression d’une structure séquentielle qui est composée de différentes structures secondaires.

Position
Les objets position permettent de représenter des valeurs. Les positions répondent au schéma suivant :
Position de l’acteur A sur l’enceinte E à l’attention de Y. Les positions permettent d’évaluer les conditions
utilisées dans les règles.
La valeur prise par les positions qui est généralement un nombre est étendue à d’autres types de
valeur : TimeLimit et UserChoice. En effet, ces types de valeur sont utiles lorsque les positions sont
utilisées afin d’évaluer la terminaison ou le commencement d’une interaction. Il est ainsi possible de définir
des interactions qui doivent se dérouler dans un temps limité ou dont la terminaison se fait au choix de
l’utilisateur. Un TimeLimit donne une valeur de position de type compteur. Elle permet d’exécuter une
interaction ou une structure dans un temps donné. Un UserChoice est une valeur binaire modifiée par
un clic souris sur un bouton de l’interface.
Enfin, l’attribut partition sert à définir à l’attention de qui la position P d’un acteur A est donnée : l’ac-
teur A lui-même (partition individuel ) ou l’ensemble des acteurs définis dans l’activité indépendamment
de leur rôle respectif (partition commune).

<Position id="lireConsignePos" partition="individuelle">


<title>les consignes sont lues</title>
<valeur>
<UserChoice>
<label>les consignes sont lues</label>
</UserChoice>
</valeur>
<sur>les_consignes</sur>
<de>eleve</de>
</Position>

Ci-dessus, une position individuelle qui indique quand chaque élève finit de lire les consignes.

Rule
Les objets Rule permettent de définir des règles calculées tout au long de l’exécution du scénario afin de
contrôler sa phase exécutoire. Ces règles, déjà évoquées dans la description des interactions, répondent au
5.3. Les Langages de Modélisation pédagogique 47

schéma classique : SI ExprConditionnelle ALORS Interaction SINON Interaction. Les règles sont aussi
utilisées afin d’exprimer la condition de terminaison ou de commencement d’une interaction.

ExprConditionnelle
Une expression conditionnelle est le test effectué par une règle afin de savoir si elle doit s’exécuter. Une
ExprConditionnelle contient un ensemble de conditions à évaluer ainsi qu’un attribut exrpCond qui per-
met, en utilisant les identifiants des conditions, de représenter le schéma selon lequel elles doivent être
interprétées. Ci-dessous, l’expression conditionnelle est vraie si A ET B sont vrais OU si C est faux.

<Rule id="RConsLuIm">
<si>
<ExprConditionnelle>
<exprCond>(A.B)+/C</exprCond>
<Condition id="A">...<Condition/>
<Condition id="B">...<Condition/>
<Condition id="C">...<Condition/>
</ExprConditionnelle>
</si>
</Rule>

Condition
Un objet Condition permet d’évaluer une position par rapport à une valeur en fonction d’un opérateur
et de l’ensemble des valeurs des autres positions. Une condition est composée :
– d’une référence à une position (grâce à l’identifiant de la position) ;
– d’un opérateur logique permettant d’évaluer la position (=, !=, <, >, <=, >=, *=,* !=, *<, *>,
*<=, *>=). L’étoile devant les opérateurs exprime la globalité. Pour *= on aura « tous égales ».
Concrètement l’opérateur *= sera utilisé par exemple pour empêcher le commencement d’une in-
teraction tant que tous les acteurs d’un rôle n’ont pas terminés l’interaction précédente ;
– d’une valeur sur laquelle le test de la position s’appuie (Il s’agit en l’occurrence d’un nombre réel) ;
– d’un identifiant permettant d’utiliser cette condition dans une ExprConditionnelle.
Voici un exemple de condition qui évalue si les consignes ont été lues.

<Condition id="CConsLuIm">
<laPosition>PI_consignes_lu</laPosition>
<comp>equalTo</comp>
<val>1</val>
</Condition>

Discussion
LDL s’appuie sur un métamodèle puissant déclinable sur de nombreux modèles d’activités. Les
concepts de ce métamodèle permettent de représenter des activités très différentes. La notion de po-
sition des participants dans une activité pédagogique constitue le moyen d’articuler des activités de
nature différente mais en relation de dépendance les unes avec les autres. Cette notion de position est
comparable à la notion de propriété du langage IMS-LD. Le concept de position se prête naturellement
à l’expression de résultats de l’apprenant durant l’activité. Un résultat est produit par un ou plusieurs
apprenants dans une enceinte. Cependant l’infrastructure qui joue les scénarios LDL (Learning Design
Infrastructure) ne permet pas d’associer les résultats produits par les apprenants et les positions qui les
décrivent.
48 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

5.4 Les Outils auteur


L’écriture d’un scénario dans un LMP est une tâche complexe qui nécessite une bonne connaissance
du langage. C’est une tâche qui n’est pas à la portée de tous. C’est pourquoi des outils dits auteur ont
été développés pour simplifier la création des scénarios.

5.4.1 RELOAD Learning Design Editor


Introduction

RELOAD (Reusable e-learning Object Authoring and delivery), est un projet qui a pour objectif
de développer des outils permettant de faciliter l’usage des spécifications issues de consortiums tels que
ADL37 ou IMS [Con06b].
RELOAD Learning Design Editor [RD06a] [RD06b] (RELOAD-LDE), est un éditeur textuel de scé-
narios IMS-LD, et est développé entre autres par Phillip Beauvoir et Paul Sharples de l’Université de
Bolton. C’est certainement à ce jour l’éditeur le plus souvent utilisé pour la création de scénarios IMS-LD.

Description

Fig. 5.3 – RELOAD : interface de création de scénario

RELOAD-LDE repose sur la plateforme Eclipse 38 , il permet d’importer et de créer des paquetages
IMS-LD [Con06a]. RELOAD-LDE ne possède pas de restrictions quant aux niveaux IMS-LD qu’il prend
en compte : il permet de créer un scénario en renseignant les trois niveaux A, B et C. Lors de la création
d’un scénario, l’auteur crée tout d’abord les unités d’apprentissage qui constituent le scénario, puis il
renseigne le formulaire associé à chaque unité. Il en va de même pour tous les autres composants du
scénario.

Discussion

RELOAD-LDE permet la création de scénarios de manière textuelle, en remplissant une succession


de formulaires. Il nécessite une très bonne connaissance du langage IMS-LD. Ce qui est en contradiction
avec la mission d’un éditeur de scénario.
37 Site ADL, http ://www.adlnet.gov/index.cfm
38 Site Eclipse, http ://www.eclipse.org/
5.4. Les Outils auteur 49

5.4.2 MOT+LD
Introduction

MOT(Modelling using Object Types) [PLLC+ 06] est un éditeur graphique basé sur un petit nombre
d’éléments typés (Concept, procédure, principe, fait) et de liens (eux aussi typés) entre ces éléments. En
associant ces éléments, il est possible de définir des modèles tels que le modèle pédagogique de MOT.
Dans ce modèle, les concepteurs ont associés les principaux objets d’IMS-LD [Con03] aux éléments de
MOT. Ainsi, le modèle pédagogique permet de créer graphiquement des scénarios et de les exporter en
IMS-LD. Cette configuration de MOT permettant de créer des scénarios IMS-LD s’appelle MOT+LD.
MOT est utile pour représenter des domaines de connaissances essentiels dans la Méthode d’Ingénierie
d’un Système d’Apprentissage : MISA [PCA97]. Cette méthode a été développée par la même équipe
que MOT, et elle définit la manière de créer un système d’apprentissage en se basant sur un domaine de
connaissances.

Description

Fig. 5.4 – MOT+LD : les éléments

Dans MOT+LD, les différents éléments d’IMS-LD sont classés en quatre catégories :
– Concept : ce sont les ressources manipulées par le scénario ;
– Procédure : tous les composants ayant un caractère dynamique, c’est-à-dire les actes, les méthodes,
etc. ;
– Principe : on retrouve dans cette catégorie les rôles et les règles ;
– Fait : ce sont tous les composants de très bas niveau du langage.

Il existe six types de relations entre éléments dans MOT :


– un lien d’instanciation (I) entre une classe et son instance ;
– un lien de composition (C). Une structure d’activité est composée d’activités ;
– un lien de précédence (P) permet d’ordonner une séquence d’activité au sein d’une structure ;
– un lien entre activité et environnement (I/P). Une activité se déroule dans un environnement,
– un lien de rôle (R) lie activité et rôle ;
– un lien d’activité (A) permet de lier les métadonnées aux éléments du langage.

La représentation graphique d’un scénario IMS-LD peut être subdivisée en plusieurs graphes comme dans
50 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Fig. 5.5 – MOT+LD : l’interface

la figure ci-dessus. MOT+LD permet de définir des activités en reprenant l’ontologie IMS-LD graphique-
ment. Une fois le scénario schématisé, MOT+LD l’exporte dans le format XML et le langage IMS-LD.

Discussion
Selon les concepteurs de MOT+LD, la création graphique d’un scénario simplifie grandement la tâche.
Néanmoins, le concepteur doit avoir en tête les concepts du langage et n’est donc pas dispensé de connaître
finement IMS-LD. MOT+LD est un éditeur graphique qui aborde la création d’un scénario différemment
de RELOAD LDE, qui lui est un éditeur textuel.

5.4.3 Collage
Introduction
Collage [HLVFJA+ 06] est un outil auteur qui permet de créer des scénarios pédagogiques collabora-
tifs dans le langage IMS-LD. Collage part du constat que la création de scénarios dans certains outils
(RELOAD Learning Design editor [RD06a]) est trop complexe pour les enseignants. Collage propose
aux enseignants de créer leurs scénarios en réutilisant et adaptant des modèles de scénario : les CLFP
(Collaborative Learning Flow Patterns).

Description
Collage s’appuie sur l’outil auteur RELOAD-LDE [RD06a] dans lequel il ajoute des modèles de scé-
nario. Dans la littérature, deux de ces modèles sont assez récurrents :
– Le modèle de la pyramide modélise une activité dans laquelle des apprenants doivent trouver une
solution à un même problème. Cette activité est composée de trois étapes. Une première étape où
les apprenants recherchent individuellement ou collectivement la réponse à la question. Une seconde
étape où les apprenants mettent en commun les solutions trouvées et se mettent d’accord sur la
réponse finale. Enfin, dans la dernière phase, la solution est donnée par les apprenants.
– Le modèle du puzzle (Jigsaw) décompose une activité en trois étapes successives. Une étape dans
laquelle des apprenants vont rechercher individuellement la réponse. Ces apprenants sont ensuite
regroupés suivant leurs compétences en groupes d’expert. Ils approfondissent alors leur réflexion
sur le problème suivant un axe de réflexion expert. Enfin, avec un expert par groupe, des groupes
"puzzle" sont constitués. Les apprenants de ces groupes doivent alors se mettre d’accord sur une
solution finale et la donner.
5.4. Les Outils auteur 51

Fig. 5.6 – Collage : interface de création d’un scénario

Dans les deux activités proposées par les modèles, l’enseignant supervise le déroulement. Collage propose
des interfaces qui expliquent chacun des modèles disponibles. Ci-dessous, nous pouvons voir la description
du modèle puzzle (Jigsaw). Il est possible de modifier les modèles de scénario en supprimant et en

Fig. 5.7 – Collage : interface d’aide

rajoutant des étapes, qui peuvent provenir d’autres modèles.

Discussion

Collage simplifie l’édition de scénarios et introduit le concept de modèles et familles de scénarios. Alors
que RELOAD-LDE et MOT+LD permettent de masquer le langage XML mais pas de s’abstraire des
concepts d’IMS-LD, Collage va plus loin. Il propose des modèles de scénarios qui peuvent être associés et
recombinés entre eux. Il n’est alors plus obligatoire de connaître le langage IMS-LD pour construire un
scénario à partir des modèles proposés.
52 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

5.4.4 CPM
Introduction
Le langage CPM (Cooperative Problem-based learning Metamodel) est une "proposition de langage
basé sur UML pour la modélisation amont de situations-problèmes coopératives" [LNS05][BL05] [Nod05].

Description

Fig. 5.8 – CPM : phases de conception d’une activité d’apprentissage scénarisée

CPM propose un profil UML [Gro04] qui permet à une équipe pluri-disciplinaire de définir de manière
itérative une activité d’apprentissage. CPM s’intéresse aux phases d’analyse et de conception jusqu’à
l’implémentation via le langage IMS-LD d’une situation d’apprentissage. Le langage CPM repose sur un
métamodèle qui définit une activité d’apprentissage à partir d’un certain nombre d’éléments ou stéréotypes
ayant un équivalent IMS-LD.

Éléments d’IMS-LD Stéréotypes CPM


method LearningProcess
play, act LearningPhase
activity, learning activity, support activity Activity
activity-structure ActivityStructure
role, learner, staff Role
Etc... Etc...

Fig. 5.9 – CPM : correspondance partielle IMS-LD/CPM

Le langage CPM dispose d’un outil auteur qui se présente sous la forme d’un profil dans l’atelier de
génie logiciel Objecteering 39 .

39 Objecteering, http ://www.objecteering.com/


5.4. Les Outils auteur 53

Fig. 5.10 – CPM : interface de l’outil auteur

Le profil UML de CPM introduit des stéréotypes d’objets UML qui appartiennent au langage CPM.
Ces stéréotypes possèdent une icone qui facilitent leurs compréhension et manipulation dans l’interface
d’objecteering CPM. Une fois le modèle de l’activité conçu dans l’outil auteur CPM, il est possible de
générer son équivalent en IMS-LD de niveau A.

Discussion
Pour les concepteurs de CPM, tout modèle UML est compréhensible par une personne ne connaissant
pas forcément le langage. Dès lors, l’idée était de spécialiser UML pour lui permettre d’exprimer le dérou-
lement d’une activité pédagogique. Cependant tout n’est pas visuel dans CPM. Certaines informations ne
figurent pas dans les graphes produits dans l’outil auteur lors de la modélisation. Par exemple, pour savoir
si une "Learningphase" est une phase collaborative ou individuelle, il est nécessaire d’aller consulter les
propriétés de l’élément. C’est une contrainte imposée par UML.
54 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

5.5 Les infrastructures de scénarisation


Une fois le scénario exprimé dans un LMP, il est nécessaire de disposer d’une infrastructure pour le
mettre en oeuvre. Les infrastructures de scénarisation présentées ici sont, mises à part LAMS [Dal03],
toutes liées à un langage de scénarisation. Les infrastructures Coppercore [Cop04] et Gridcole [BLVGVG+ 04]
jouent IMS-LD [Con03], LDI [MVFD06] joue LDL [MVFD06]. Compte tenu de l’engouement actuel pour
les infrastructures de scénarisation, il en existe beaucoup (COW [Van03], SLeD40 , etc.), nous ne présen-
tons ici que les trois plus importantes.

5.5.1 CopperCore
Introduction

L’Université ouverte des Pays-Bas est à l’origine de CopperCore, le premier moteur d’exécution de
scénarios pédagogiques écrits en IMS-LD [Con03]. Ce moteur est diffusé dans un paquetage disponible
sur le site http ://CopperCore.org/. CopperCore n’est qu’un maillon dans un dispositif plus complexe
(Learning Design System) destiné à rendre opérationnel les scénarios IMS-LD dans un environnement
cible. Ce dispositif est générique : il est conçu pour permettre l’exécution de scénarios sur n’importe quelle
plateforme capable de dialoguer avec CopperCore via SOAP [W3C00]. CopperCore est chargé de valider
le scénario pédagogique, de l’opérationnaliser et d’ordonnancer son exécution.

Description

CopperCore permet la validation, l’opérationnalisation et l’ordonnancement d’un scénario pédago-


gique décrit dans le langage IMS-LD.
CopperCore charge le paquetage issu d’un outil auteur grâce à son outil publisher. Ce paquetage
contient le fichier XML décrivant le scénario, ainsi qu’un répertoire composé des fichiers utilisés lors de
son exécution (images, textes, etc). Le paquetage est alors parcouru afin d’être validé (vérification des
liens sur les objets, respect de la DTD IMS-LD). S’il est validé, il est publié dans CopperCore.

Fig. 5.11 – CopperCore : interfaces d’importation et de validation de scénario

40 SLeD, http ://piranha.open.ac.uk/web/


5.5. Les infrastructures de scénarisation 55

La première étape consiste à définir quel rôle va jouer chaque participant dans le scénario. On postule
donc que l’on dispose d’un certain nombre d’utilisateurs auxquels il faut affecter un rôle. CopperCore
permet la création des utilisateurs et l’appariement des rôles grâce à l’outil Clicc (Command Line Inter-
face CopperCore).

L’outil Webplayer permet aux participants de jouer le scénario. À ce niveau, l’environnement d’exé-

Fig. 5.12 – CopperCore : interface Élève

cution du scénario est complètement défini : les objets à manipuler ont été décrits dans l’outil auteur et
joints au scénario dans un répertoire, les rôles du scénario ont été associés à des utilisateurs quant aux
services, soit ils ont été directement nommés (ie lien vers Google pour un service de recherche), soit leurs
propriétés ont été définies. Dans le cas où les services ne seraient pas expressément nommés, IMS-LD
permet de les décrire. En interrogeant un outil de définition de services basé sur OKI-OSID [KMT04],
CopperCore est alors théoriquement capable d’identifier le service disponible qui correspond le mieux
aux besoins. Ce dispositif ne fonctionne qu’avec les services déjà intégrés à CopperCore. Rappelons ici
qu’IMS-LD [Con03] envisage seulement trois types de services : conférence, forum et chat, et outil de
recherche.

Comme évoqué précédemment, CopperCore fournit trois interfaces graphiques différentes : Publisher
(importation et validation du scénario), Clicc (correspondance entre rôles et utilisateurs), Webplayer
(visualisation des scénarios associés à chaque utilisateur).

L’interface de programmation (API) se compose elle aussi de trois parties :

– Course Manager fournit les fonctions d’administration du scénario, c’est en quelque sorte l’API de
Publisher et de Clicc ;
– Timer permet de gérer les durées spécifiées dans le scénario IMS-LD. Par exemple, il est capable
d’indiquer à quel moment un utilisateur a terminé un exercice en temps limité ;
– LDEngine est le coeur de CopperCore. C’est lui qui ordonnance l’exécution du scénario. Il maintient
et vérifie la cohérence de l’environnement et des activités des scénarios (comme un processeur).

Les API de CopperCore ont été conçues comme des services Web [Not01] et sont interrogeables via SOAP
[W3C00].
56 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Discussion
CopperCore est un produit issu de la recherche scientifique et ses choix technologiques sont ambi-
tieux : utilisation du serveur d’application Jboss41 , des EJB42 , de SOAP [W3C00]). CopperCore est
un outil compliqué à installer et la documentation disponible est assez pauvre : les quelques articles
disponibles se paraphrasent et restent très sommaires. Cependant, l’objectif de CopperCore n’est peut-
être pas de fournir un moteur d’exécution de scénarios à destination du "grand public" mais de servir
de base au développement d’une application réellement à destination des enseignants. CopperCore est
plus une infrastructure pour ingénieurs logiciels voulant développer une application commerciale. C’est
du reste CopperCore qui supporte le moteur d’exécution de scénario Reload Learning Design Player43 .
RELOAD-LDP est une version plus accessible aux non informaticiens.

5.5.2 Gridcole
Introduction
Gridcole [BLVGVG+ 04] assemble deux approches : la scénarisation des activités pédagogiques en
utilisant le langage de scénarisation IMS-LD, et les technologies de grille définies par des standards tels
que Open Grid Services Architecture (OGSA) [FKNT03]. Les technologies de grille sont utilisées pour
permettre l’exécution par plusieurs ordinateurs connectés en réseaux, d’applications informatiques très
consommatrices en puissance machine. Gridcole permet donc de jouer des activités pédagogiques qui
utilisent des services nécessitant l’usage de la technologie de grille.

Description
Gridcole s’appuie sur le moteur d’exécution CopperCore [Cop04] dont il réutilise les fonctionnalités
d’importation et d’opérationnalisation de scénarios.

Fig. 5.13 – Gridcole : usage de l’application

L’usage de Gridcole est similaire à celui de CopperCore comme l’illustre la figure ci-dessus. OGSA
permet une intégration fine des services manipulés par le scénario. L’utilisateur peut donc utiliser le
service qu’il désire car OGSA définit finement les services et leurs API et permet l’usage de n’importe
quel service dans la grille. Il n’est pas nécessaire qu’il soit déjà intégré à Gridcole pour l’utiliser. Cette
facilité d’interopérabilité avec les services est aussi le but recherché par les concepteurs de CopperCore
avec le standard OKI-OSID [KMT04]. Dans CopperCore, le service doit déjà être intégré.
41 Serveur
d’application JBoss, http ://labs.jboss.com/portal/
42 Enterprise
JavaBeans, http ://java.sun.com/products/ejb/
43 RELOAD-LDP, http ://www.reload.ac.uk/ldplayer.html
5.5. Les infrastructures de scénarisation 57

Fig. 5.14 – Gridcole : interface utilisateur

La capture d’écran ci-dessus représente l’interface proposée à un participant lors d’une activité scéna-
risée. Cette activité collaborative consiste à réaliser collectivement, un benchmark d’ordinateurs. Chaque
participant se coordonne durant l’activité en utilisant un chat.

Discussion
Gridcole est une solution originale qui couple deux approches : la technologie de scénarisation des
activités pédagogiques et les technologies de grille. Elle permet d’améliorer l’interopérabilité entre le
moteur de scénarisation et les services manipulés par les activités scénarisées. Cette interopérabilité n’est
pas réellement effective dans les autres moteurs de scénarisation même si des améliorations sont en cours.
En revanche, l’évaluation n’est pas une thématique privilégiée par les concepteurs de Gridcole : aucun
article ne l’évoque. Cependant, on peut noter qu’en permettant à l’enseignant de choisir les services de
l’activité, OGSA offre également la possibilité de choisir les services d’évaluation. Encore faudrait-il qu’il
existe aussi des services de grille d’évaluation, ce qui n’est pas le cas puisque la technologie de grille est
à l’origine utilisée à des fins computationnelles et non éducatives.

5.5.3 LAMS
Introduction
LAMS (Learning Activity Management System)44 [Dal03] est un logiciel libre (GNU-GPL) qui permet
de créer et de jouer des scénarios pédagogiques. LAMS intègre un outil auteur qui permet de créer
facilement un scénario pédagogique et un moteur d’exécution qui joue ces scénarios.

Description
L’espace auteur de LAMS permet de décrire graphiquement l’usage de différents services (chat, fo-
rums, etc) et de contenus (QCM, URL, textes, images) par des apprenants ou des groupes d’apprenants.
L’utilisateur crée une représentation graphique du scénario pédagogique qu’il veut jouer. C’est ce que
nous voyons sur la capture d’écran de l’espace auteur (figure 5.15) avec des rectangles représentant des
services ou des contenus chaînés les uns aux autres.

44 Site WEB de LAMS : http ://www.lamsinternational.com/index.html


58 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Fig. 5.15 – LAMS : espace auteur

Fig. 5.16 – LAMS : espace moniteur

L’espace moniteur permet d’inscrire les participants à l’activité décrite par un scénario, de la lancer
et de suivre son déroulement pour chaque apprenant. Cela correspond à la phase d’opérationnalisation
du scénario dans LDI ou Reload. Les informations de suivi permettent à l’enseignant de connaître en
temps réel la position de l’apprenant dans l’activité et la nature de ses contributions. Par exemple les
contributions dans un outil de chat sont visibles par l’enseignant dans l’espace moniteur (figure 5.16).

Fig. 5.17 – LAMS : espace apprenant


5.5. Les infrastructures de scénarisation 59

L’espace apprenant est le seul espace accessible aux participants de l’activité qui doivent y réaliser
les tâches prévues par le scénario. Ces tâches sont séquentielles, et peuvent être dans un même scénario
tantôt individuelles tantôt collectives.

Discussion
LAMS est un outil complet, il permet de créer des scénarios d’apprentissage, de les jouer et de suivre
le déroulement des activités qu’ils décrivent. LAMS intègre ses propres services : chat, forum et service
de questionnaires. Il est en outre interfacé avec différents ENT tels que Moodle45 . Cependant, LAMS
présente l’inconvénient de cantonner l’enseignant à un rôle de superviseur de l’activité, et moins de tuteur
ou d’animateur, car les interactions avec les apprenants sont faibles. Une nouvelle version de LAMS est en
cours de développement pour y remédier, ce qui permettrait à terme d’envisager des activités d’évaluation
formative réalisées par l’enseignant.

5.5.4 LDI
Introduction
Pour le langage LDL, LDI (Learning Design Infrastructure) est en quelque sorte le pendant de Cop-
percore avec IMS-LD. C’est une infrastructure qui permet d’opérationnaliser un scénario et de jouer
l’activité qu’il spécifie. Conçue et développée dès 2003 par les laboratoires SysCom de l’Université de
Savoie et CLIPS-IMAG de l’Université de Grenoble, ainsi que par la société Pentila, LDI fait l’objet
d’améliorations constantes.

Description
LDI permet l’importation, l’opérationnalisation d’un scénario et son exécution.
– importation : un scénario est préalablement écrit dans un fichier XML qui respecte la syntaxe LDL.
LDI permet ensuite l’importation de ce fichier qui est alors téléchargé dans l’infrastructure. Après
importation, le scénario doit être opérationnalisé pour être joué ;
– opérationnalisation : lors de l’opérationnalisation du scénario, les comptes des participants sont
associés aux rôles du scénario, et les outils utilisés sont associés aux enceintes manipulées par le
scénario ;
– exécution : lors de l’exécution du scénario, le "player" LDI ordonnance grâce à sa base de règles
(Rules de LDL) le déroulement des activités.

Fig. 5.18 – LDI : opérationnalisation du scénario avec les objets de l’environnement

45 Moodle, http ://moodle.org/


60 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Une fois importé, le scénario pédagogique est opérationnalisé avec les objets disponibles dans l’envi-
ronnement. Des rôles sont associés aux acteurs, et les enceintes décrites dans le scénario sont désignées
par une URL. Il est possible d’opérationnaliser automatiquement le scénario pédagogique dans certains
environnements. Par exemple, dans le cas du portail de l’Université de Savoie, certaines enceintes comme
les forums, chats et dossiers peuvent être générées dynamiquement (si elles n’existaient pas auparavant)
et associées au scénario.

Fig. 5.19 – LDI : espace apprenant

LDI offre aux participants une interface Web à partir de laquelle les participants ont accès aux en-
ceintes manipulées par le scénario. Cette interface est partagée en deux parties. La première permet
d’interagir avec le "player" en demandant par exemple, (si spécifié dans le scénario) de démarrer ou d’ar-
rêter une interaction. La deuxième partie affiche l’enceinte courante dans laquelle se déroule l’interaction.
Le tableau de bord de l’activité permet de suivre la progression des participants dans un scénario en

Fig. 5.20 – LDI : tableau de bord de l’activité

cours de déroulement, de connaître l’enceinte dans laquelle se trouve chaque participant, et de déterminer
l’interaction en cours de réalisation. C’est un outil dit d’"awareness", permettant d’avoir des informations
sur les autres participants de l’activité.
5.6. Résultats et activités scénarisées 61

L’outil de métamodélisation ModX

Fig. 5.21 – LDI : l’éditeur ModX

ModX46 peut être utilisé pour créer des scénarios dans le langage LDL. ModX n’est pas un éditeur de
scénario mais un outil de métamodélisation. Il est cependant possible de créer des scénarios avec cet outil.
En effet, le métamodèle LDL décrit dans un fichier XMI peut être chargé dans ModX. ModX offre alors
la possibilité de créer des scénarios LDL à partir de ce métamodèle. Les scénarios ainsi créés dans ModX
sont alors sauvegardés dans un fichier XMI et transformés ensuite en XML pour pouvoir être importés,
opérationnalisés et joués par LDI.

Discussion
LDI offre une infrastructure complète permettant de jouer des scénarios pédagogiques définis dans le
langage LDL. Dans l’outil ModX, il est possible de créer graphiquement des scénarios, ce qui facilite leur
lisibilité et leur création (par rapport à une description dans un fichier XML). Cependant, la création
d’un scénario LDL à partir de ModX pose le problème suivant : la transformation du fichier XMI en
fichier XML ne permet pas de créer un scénario directement exploitable dans LDI. Certains champs sont
mal renseignés, ce qui nécessite un débuggage du fichier XML. Il est donc nécessaire de développer un
véritable éditeur LDL.
Comme expliqué en 5.3.2, LDI ne permet pas l’exploitation des résultats produits par le/les apprenant/s
durant le déroulement des activités. Cette contrainte empêche l’expression de l’évaluation dans les scé-
narios d’apprentissage. En matière d’évaluation, LDL permet simplement à l’enseignant d’accéder aux
enceintes dans lesquelles sont produits des résultats.

5.6 Résultats et activités scénarisées


A l’image de LDI, l’usage de résultats issus des services manipulés par l’activité d’apprentissage
est problématique, tout d’abord parce que les solutions (quand elles existent dans l’infrastructure de
scénarisation) permettant d’utiliser les résultats sont encore très limitées, mais aussi parce qu’il n’existe
pas de standard complet en matière de résultats.

5.6.1 La gestion des résultats IMS-QTI par IMS-LD


Ce n’est qu’en 2006, que les instigateurs d’IMS-LD ont proposé un mécanisme permettant d’utiliser
des résultats dans un scénario pédagogique [VMT+ 06]. Jusqu’alors, cette éventualité était évoquée mais
46 ModX : http ://noce.univ-lille1.fr/projets/ModX/
62 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

jamais formalisée. La technique proposée s’applique uniquement entre IMS-LD et des questionnaires IMS-
QTI. Elle repose sur la déclaration d’une variable dans le fichier IMS-QTI qui peut être appelée dans le
scénario au sein d’une propriété.

Fig. 5.22 – IMS-LD, IMS-QTI : interopérabilité [VMT+ 06]

Dans la figure ci-dessus, une variable "VPROP" est déclarée dans le fichier QTI et une propriété locale
exprimée en IMS-LD pointe sur cette variable. Lors de l’exécution du scénario, les moteurs d’exécution de
questionnaires et de scénarios s’échangeront cette valeur. Même si cette démarche n’est qu’une première
étape (car spécifique aux questionnaires), elle illustre le besoin évident pour la communauté IMS-LD de
pouvoir utiliser des résultats produits par les ressources manipulées par les activité scénarisées. Cependant,
cette approche ne propose pas de réel formalisme de résultats permettant d’exprimer toute la sémantique
de cette variable en vue de son utilisation.

5.6.2 Usage Tracking Language


L’approche UTL (Usage Tracking Language) [IC05] s’intéresse à l’expression de résultats dans le
domaine de la scénarisation pédagogique. UTL est un métalangage, qui permet d’exprimer et de récolter
des traces contextualisées issues d’une activité d’apprentissage scénarisée [HMFC05], et ce par le biais
de fichiers de "log". Dans un cadre d’adaptation des scénarios, l’objectif d’UTL est de permettre au
concepteur de comparer ses prédictions lors de l’écriture du scénario avec l’activité réelle de l’apprenant.
Cela pose le problème de la construction des observables et de la fouille des traces de l’activité.
Ainsi, le métalangage UTL est composé de deux parties :
– une partie qui permet de définir le langage de structuration de traces ;
– une autre partie qui permet de spécifier la fouille des logs en vue d’en extraire des traces.

Le schéma 5.23 représente une vue générale du métalangage UTL pour la représentation des traces.
Le modèle prend en compte le contexte d’obtention des traces (Track) en le liant aux concepts du langage
de scénarisation. Un usage (ObservedUsage) est illustré par un certain nombre de traces. Cet usage fait
référence à des concepts traçables (TraceableConcept) tels qu’une enceinte de LDL. Les concepts sont
liés entre eux par des relations exprimées par le langage de scénarisation.
5.6. Résultats et activités scénarisées 63

Fig. 5.23 – UTL : représentation des traces

Dans le langage UTL, une trace (figure 5.24) est composée d’un ensemble de données, avec un mot-clé
permettant de l’isoler dans le fichier de log et une valeur. C’est l’expression de mots clés qui permet le
recueil automatique des traces par l’algorithme de fouille de données.

Fig. 5.24 – UTL : recueil des traces

L’approche UTL souligne bien la nécessité d’obtenir des traces en général, et plus particulièrement
des traces exploitables par des activités scénarisées. L’objectif des concepteurs d’UTL est de permettre,
à partir des observations réalisées grâce à UTL, la réingénierie des scénarios. Cette démarche s’appuie
sur l’exploitation des fichiers de log, qui semble être bien adaptée pour expliquer et exploiter à posteriori
des événements imprévus dans le déroulement de l’activité. UTL permet ainsi l’élaboration de scénarios
descriptifs (cf. 5.2.2) de l’activité. Mais l’étude des fichiers de log a aussi ses limites :
– Ce sont les concepteurs de l’application qui définissent les logs qui vont être générés. Ce choix est
bien souvent conditionné par une logique de maintenance de l’application et non d’étude de son
utilisation ;
– L’étude de traces ne permet pas toujours de donner du sens aux actions de l’utilisateur. Il subsiste
bien souvent des parts d’ombre dans leur interprétation [HMFC05] ;
– Tous les résultats produits par les participants ne sont pas forcément extraits et ceux qui sont
extraits n’ont pas toujours de l’intérêt ;
– Plus généralement, l’étude des traces pose aussi des problèmes éthiques. Est-il éthique d’observer
tout ce que font les participants d’une activité ? Comment garantir un usage "positif" de ces traces ?

Dans certains cas et notamment lors du transfert de résultats entre services, l’échange est planifié dans
ce qu’on appel un scénario prédictif (cf. 5.2.2). Pour que cet échange ait lieu, il suffit alors de définir le
format des résultats (cf. 4.3.5) à échanger et un protocole de communication. Dans ce cas, les limites
rencontrées par les approches d’étude de traces ne sont plus rencontrées. Les résultats exprimés sont
spécifiques à l’activité et clairement identifiés. Cependant, cette approche ne permet pas de prendre en
compte d’autres résultats que ceux prédits.

Enfin, le langage d’expression des traces d’UTL est très dépendant du langage de scénarisation dont
il reprend tous les concepts et relations entre concepts. Il ne permet pas de spécifier un formalisme
commun à tous les dispositifs de scénarisation.
64 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

5.7 Cas d’étude : le jeu des planètes


5.7.1 Introduction
Afin d’analyser plus en profondeur la place de l’évaluation dans la scénarisation des activités péda-
gogiques, nous avons proposé un cas d’étude à différents laboratoires travaillant dans le domaine. Ce cas
d’étude a été proposé dans le cadre d’un atelier de la conférence ICALT47 2006 [VDF+ 06b] et son objectif
est de comparer les différentes approches sur un même cas d’étude "Comparing Educational Modeling
Languages on a case study".

Les équipes sollicitées ont été les suivantes :


– le centre "Macquarie E-learning Centre of Excellence" de l’Université Macquaries de Sydney en
Australie ;
– le centre "Educational Technology Expertise Centre", de l’Université ouverte des Pays-Bas ;
– la division "CICE Research Chair", du laboratoire "LICEF Research Center", de la Télé-université
du Québec au Canada ;
– les laboratoires LIUPPA-IUT de Bayonne, et le LIUM-IUT de Laval, en France ;
– le département de communication, de l’Université de Montréal au Canada ;
– le laboratoire CLIPS-ARCADE, de l’Université de Grenoble en France ;
– le département "Department of Electronics and Computer Science", de l’Université de Santiago de
Compostela en Espagne ;
– le laboratoire "School of Telecommunications Engineering", de l’Université de Valladolid en Es-
pagne ;
– et le laboratoire SysCom de l’Université de Savoie en France.
Chacune des équipes a produit un document, expliquant la manière dont elle a traité la situation
d’apprentissage proposée. La proposition du laboratoire SysCom sera présentée dans la partie proposi-
tion pour illustrer nos contributions.

Les propositions des différentes équipes n’ont pas toutes été de même niveau. Suivant les thématiques
de recherche des équipes, certains aspects de la chaîne éditoriale d’un scénario ont été plus soulignés que
d’autres.

Les propositions ont traité les points suivants :


– la modélisation de l’activité, c’est-à-dire l’expression de l’activité dans un langage graphique ou
textuel ;
– l’expression de l’activité dans un formalisme de scénarisation interprétable par une infrastructure
de scénarisation ;
– l’opérationnalisation du scénario, spécifiée dans un langage de scénarisation dans une infrastructure
de scénarisation ;
– l’exécution du scénario, c’est-à-dire le déroulement de l’activité dans l’infrastructure de scénarisa-
tion.

47 ICALT, International Conference on Advanced Learning Technologies


5.7. Cas d’étude : le jeu des planètes 65

Dans le tableau ci-dessous, les croix indiquent les aspects les plus soulignés par chacune des proposi-
tions.

Université Phases de la chaîne éditoriale d’un scénario


Modélisation Expression Opérationnalisation Exécution
Université Macquaries de Sydney X X X X
Université Ouverte des Pays-Bas X X X X
Télé-université du Québec X
Universités de Bayonne et Laval X
Université de Montréal X X X
Université de Grenoble X X X
Université Santiago de Compostela X X X
Université de Valladolid X X X X
Université de Savoie X X X X

Fig. 5.25 – Cas d’étude : phases de la chaîne éditoriale les plus soulignées par les différentes équipes

5.7.2 Analyse de l’activité et propositions commentées


Description
L’activité proposée [VDF+ 06a] s’inspire en partie d’une activité de longue durée en astronomie
(CNED). Les apprenants ont tous le même problème à résoudre. Ils sont séparés en deux équipes :
l’équipe A et l’équipe B. Chaque équipe a seulement la moitié des connaissances permettant de résoudre
le problème. Les deux équipes doivent donc collaborer pour rassembler les connaissances nécessaires pour
répondre à cette question.

L’objectif premier de l’activité est de permettre aux apprenants d’acquérir des connaissances basiques en
astronomie. Plus précisément, ils doivent classer les planètes du système solaire par ordre décroissant de
leur distance au Soleil. Le second objectif est d’apprendre aux élèves à définir une stratégie de travail et
de négociation au sein du groupe et entre groupes.

L’équipe A dispose d’un document issu de l’interview d’un expert, indiquant les propriétés de chaque
planète du système solaire. Le nom des planètes n’est toutefois pas indiqué dans le document. De ces
informations, les membres de l’équipe peuvent déduire la distance de chaque planète au Soleil.

L’équipe B dispose d’un autre document, également issu de l’interview d’un expert, qui mentionne le nom
des planètes et quelques propriétés de chacune des planètes. Les membres de l’équipe B ne connaissent
pas la position des planètes entre elles, et avec le Soleil.

Les deux équipes doivent coopérer en utilisant un forum pour s’échanger des informations. Au sein de
chaque équipe, les membres peuvent utiliser un chat afin de discuter, s’organiser et définir une stratégie
vis-à-vis de l’autre équipe.

L’enseignant a accès au forum et peut donc participer à la discussion pour ajouter des indices. Lorsque
l’enseignant le décide, l’activité de recherche de l’ordre des planètes se termine. Les apprenants doivent
alors répondre individuellement à un questionnaire leur demandant le classement des planètes. Le gagnant
est celui qui donne le bon classement. L’activité se termine quand un gagnant est désigné.
66 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Les services utilisés et les ressources manipulées


Les apprenants ont à leur disposition :
– deux interviews différentes d’expert. Ceux deux documents sont complémentaires et proposent en-
semble la totalité des informations nécessaires au classement des planètes ;
– un questionnaire qui permet à chaque apprenant de donner son classement des planètes ;
– un forum commun aux deux équipes et à l’enseignant ;
– un chat privatif par équipe. Seuls les membres d’une même équipe peuvent s’y connecter.

Les points importants de l’étude


Pour mieux les distinguer, toutes les propositions des équipes de recherche devaient suivre une trame
pré-définie en répondant aux questions listées dans le tableau ci-dessous.

Conception et opérationnalisation du scénario Comment l’activité est-elle modélisée ?


Comment se déroule l’opérationalisation et l’exécu-
tion du modèle dans une plateforme cible ?
Observation de l’activité Comment l’activité est-elle observée par l’enseignant
durant l’activité ?
Comment ces observations peuvent-elles être utilisées
par l’enseignant pour modifier l’activité ?
Traces de l’activité Est-ce que le déroulement de l’activité produit des
traces ?
Comment ces traces peuvent-elles être utilisées ?
Réutilisation du scénario Comment le scénario d’étude peut-il être a adapté à
un autre sujet et gardant la même structure ?

Fig. 5.26 – Cas d’étude : fil conducteur

Dans les réponses des équipes, notre attention s’est plus spécifiquement portée sur les points suivants :
– la conception et l’opérationnalisation du scénario : comment les auteurs ont-ils modélisé et opéra-
tionnalisé l’activité ?
– l’évaluation. Quelles sont la part et la nature de l’évaluation des apprenants dans la contribution ?

Intérêts de l’activité
Cette activité relève du stratégique puisque pour gagner, les apprenants doivent s’entraider, mais
aussi faire perdre les autres. L’activité alterne phase de travail collaboratif et phase de travail individuel,
ce qui est déjà une richesse en soi. Dans tout travail collaboratif, la confiance, la réciprocité, le respect
et la solidarité sont indispensables. La réussite de l’activité nécessite donc l’apprentissage et la mise en
pratique de ces valeurs.

L’intérêt se situe aussi également du point de vue de l’évaluation puisqu’il est possible de mener trois
grands types d’évaluation (cf. 2.4) durant l’activité proposée :
– l’évaluation formative : en accédant au forum et au chat, l’enseignant peut observer les contributions
des apprenants, corriger leurs erreurs de jugement et les guider vers la solution ;
– L’évaluation sommative : à travers le questionnaire final ;
– L’évaluation normative : à travers les réponses au questionnaire, l’enseigner peut comparer les ré-
sultats des apprenants.

Durant cette activité, mais de manière moins évidente seraient aussi envisageables :
– l’évaluation de compétences par le biais du questionnaire final ;
– l’évaluation de la participation, à travers les outils de communication (chats et forum) ;
– l’évaluation par pairs : les apprenants s’évaluent entre eux.
5.7. Cas d’étude : le jeu des planètes 67

5.7.3 Proposition de l’Université Macquarie de Sydney


Introduction
Cette proposition [Dal06] s’appuie sur la version 1.0.2 de LAMS [Dal03] (cf. 5.5.3).

Conception et opérationnalisation du scénario


LAMS est à la fois un outil auteur de scénarios (langage LAMS-LD), un moteur d’exécution et un
ensemble de ressources et services : toute la chaîne éditoriale est contenue dans LAMS. La création du
scénario ne nécessite pas de connaissances du langage LAMS-LD et est donc réalisable directement par
l’enseignant.

L’activité proposée par les auteurs possède deux phases séquentielles :


– LAMS organise les participants en deux groupes ;
– puis les apprenants ont accès aux interviews des experts, aux consignes, à un chat par groupe, à un
forum commun et à un questionnaire individuel.
L’enseignant ne peut pas accéder au forum des élèves. Il doit être connecté comme élève pour participer
à la discussion. Une fois que l’enseignant a modélisé l’activité, il peut l’assigner au groupe d’élèves de
son choix et la lancer. L’activité se termine pour chaque élève lorsque la réponse au questionnaire a été
donnée.

Evaluation
LAMS offre au professeur un espace de supervision de l’activité à partir duquel il peut visualiser
la progression des élèves dans l’activité. Deux vues sont disponibles : une vue de groupe et une vue
individuelle. L’enseignant peut observer la phase de travail courante de chaque apprenant, les phases
terminées, les participations au forum et au chat, les réponses au questionnaire. De son côté, chaque élève
peut consulter un historique de ses précédentes contributions dans l’activité.

L’évaluation du questionnaire est automatique dans LAMS : l’élève reçoit un score et une correction.
Depuis son espace de supervision, l’enseignant peut évaluer les apprenants, mais il ne peut pas influencer
l’activité en cours à partir de ses observations.

Discussion de la proposition
L’enseignant n’a que très peu d’interactions avec les apprenants durant l’activité, il est surtout un
observateur. Il peut participer au forum mais uniquement en se connectant comme élève. Il ne constitue
pas lui-même les groupes : c’est LAMS qui s’en charge aléatoirement. En outre, les chats des deux groupes
ne sont pas exclusifs : rien n’empêche un élève de l’équipe A d’accéder au chat de l’équipe B. L’auteur
nous indique cependant que ces problèmes sont corrigés dans la version 2 de LAMS.
68 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

5.7.4 Proposition de l’Université Ouverte des Pays-Bas


Introduction
Cette proposition [Tat06] s’appuie sur le langage de scénarisation IMS-LD [Con03] et sur les ou-
tils qui l’accompagnent. Cette solution, qui peut être considérée comme classique et typique, est très
représentative de la vision de l’Université Ouverte des Pays-Bas quant à la scénarisation des activités
pédagogiques.

Conception et opérationnalisation du scénario


Le scénario est construit en utilisant l’outil auteur RELOAD-LDE (cf.j 5.4.1). De cet outil auteur, on
obtient le paquetage IMS-CP [Con06a] qui contient le scénario au format XML dans le langage IMS-LD.
L’auteur envisage ensuite de jouer le scénario en utilisant le moteur d’exécution CopperCore (cf. 5.5.1)
et le système de gestion d’apprentissage (SGA) Moodle48 .

Les auteurs ont modélisé l’activité dans le langage IMS-LD par quatre actes :
– coopération pour nommer et ordonner les planètes ;
– réponse au questionnaire ;
– supervision de la collaboration des apprenants ;
– supervision de la réponse au questionnaire.
Les deux premiers actes sont joués par les élèves, les deux derniers par l’enseignant. Le questionnaire
est un questionnaire IMS-QTI [Con05b].

Evaluation
L’enseignant supervise la collaboration des apprenants dans le forum, observe les contributions, ré-
gule le déroulement de l’activité et supervise la réponse au questionnaire (en visualisant directement les
réponses des apprenants). Chaque réponse est exprimée dans le scénario IMS-LD par une propriété locale
(locpers-property). Les réponses données par les apprenants sont consultables dans l’outil de suivi associé
à CopperCore.

Dans cette situation, l’évaluation est laissée intégralement à la charge de l’enseignant : c’est lui qui
évalue les réponses au questionnaire et désigne le vainqueur.

Discussion de la proposition
Le moteur d’exécution CopperCore est encore en cours de développement et propose actuellement
peu de services. Aussi pour cette activité, les auteurs ne disposaient pas d’outil de chat et ont utilisé le
forum de Moodle (partiellement interfacé avec CopperCore).
En dehors du questionnaire IMS-QTI, les traces issues des services manipulés par les participants durant
l’activité ne sont pas exploitables. Par exemple, il n’est pas possible d’associer une propriété IMS-LD aux
contributions des participants dans le forum. Il s’agit cependant d’un axe de recherche et de développement
pour la communauté IMS-LD [Tat06]. On voit bien là, les limites que cela entraîne du point de vue de
l’évaluation : s’il n’est pas possible de définir dans IMS-LD des observables issus des services manipulés
par les apprenants, il n’est pas possible de les associer au déroulement de l’activité. Il n’est pas non plus
possible de décrire l’évaluation de ces observables dans le langage de scénarisation.

48 Moodle, http ://moodle.org/


5.7. Cas d’étude : le jeu des planètes 69

5.7.5 Proposition de la Télé-Université du Québec


Introduction

Cette contribution est centrée sur la modélisation de l’activité [PL06]. Les auteurs utilisent l’éditeur
graphique MOT+LD qui est un outil auteur IMS-LD. Ils envisagent d’utiliser comme moteur d’exécution
de scénario Coppercore (cf. 5.5.1).

Conception et opérationnalisation du scénario

L’activité est modélisée en quatre actes dans l’interface de MOT+LD :


– l’enseignant organise les apprenants en deux équipes et fournit l’environnement de l’activité : un
forum, des documents, deux chats et un questionnaire individuel ;
– le second acte décrit la collaboration de chaque équipe en utilisant le chat et les deux interviews
des experts. Il décrit aussi la collaboration inter-équipes. L’enseignant observe, contrôle et modère
le forum dans lequel il peut aussi intervenir ;
– l’enseignant met fin à la discussion dans le forum et rend accessible le questionnaire aux participants.
Il reçoit ensuite les réponses ;
– enfin, l’enseignant évalue les réponses des apprenants et donne la correction. Les apprenants peuvent
ensuite en discuter sur le forum.
MOT+LD permet de générer un scénario IMS-LD de niveau A. Les auteurs ont donc aussi utilisé
RELOAD-LDE (cf. 5.4.1) pour décrire les niveaux B et C du scénario, c’est-à-dire pour lier les ressources
décrites dans le scénario avec celles disponibles dans l’environnement cible.

Evaluation

Fig. 5.27 – Cas d’étude : modélisation de l’évaluation par MOT+LD

Objet du dernier acte de l’activité, l’évaluation est modélisée dans MOT+LD par les auteurs. L’ensei-
gnant récupère les résultats dans un environnement d’évaluation qui est au stade de la modélisation non
défini. Dans l’implémentation, cet environnement pourrait être un outil permettant de jouer des ques-
tionnaires IMS-QTI. Charge ensuite à l’enseignant de déclarer les gagnants et de donner les solutions.
70 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Discussion de la proposition
Dans la modélisation proposée, l’évaluation des apprenants n’est pas clairement spécifiée. Les auteurs
ne précisent pas si les propositions de classement des planètes sont corrigées dans l’environnement d’éva-
luation ou directement par l’enseignant. Les auteurs n’émettent pas de critiques sur leur approche, si ce
n’est sur les limites du langage IMS-LD.

5.7.6 Proposition des Universités de Bayonne et de Laval


Introduction
CPM permet de modéliser une activité pédagogique selon un langage de modélisation indépendant de
tout langage de scénarisation (cf. 5.4.4). La modélisation CPM intervient en amont de la construction du
scénario dans un outil auteur dédié à ce langage. Les auteurs présentent dans cette contribution [NL06]
une modélisation CPM de l’activité qui leur a été proposée.

Conception et opérationnalisation du scénario

Fig. 5.28 – Cas d’étude : vue globale de l’activité dans CPM

Chaque groupe possède une interview d’expert, un chat et un forum privatif. Un autre forum et un
questionnaire sont accessibles et consultables par tous. L’enseignant suit l’activité et rajoute des indices.
Il a la charge de corriger le questionnaire, de mettre fin à l’activité de recherche et de débriefer le groupe.
Les auteurs ont aussi modélisé l’interview des experts comme phase de l’activité.

Evaluation
Dans la modélisation proposée, l’évaluation est assurée par l’enseignant qui reçoit de manière itérative
les propositions de chaque apprenant. Dans le modèle CPM, ceci se traduit par une activité collaborative
entre apprenant et enseignant. L’enseignant corrige et informe l’apprenant du résultat. Si la réponse
donnée est fausse, l’apprenant réitère sa proposition. Cela permet à l’apprenant de voir ses erreurs et de
5.7. Cas d’étude : le jeu des planètes 71

les corriger. Les auteurs proposent une évaluation finale formative et non sommative. Cela illustre le fait
qu’il n’y a pas une évaluation associée à chaque activité mais plusieurs dont le choix dépend des besoins
mais aussi des sensibilités.

Discussion de la proposition
Cette proposition est particulièrement intéressante car elle propose une scénarisation de l’évaluation
finale des apprenants. Contrairement aux précédentes propositions qui laissent la charge totale de l’éva-
luation finale à un outil, les auteurs ont modélisé la manière dont les apprenants sont évalués. Ils ont
considéré l’évaluation comme une phase du cas d’étude pouvant être scénarisée et non pas comme une
fonction d’un service de l’ENT. Cependant, il aurait été intéressant que les auteurs détaillent plus le
scénario XML induit par leur modèle. Cela nous aurait permis d’analyser la manière dont l’évaluation
aurait été exprimée dans ce scénario, puis opérationnalisée.

5.7.7 Proposition de l’Université de Montréal


Introduction
Explor@Graph [DP00] [VLD05] est une plateforme qui permet de décrire une activité pédagogique
collaborative et de la jouer dans un contexte de FOAD (Formation Ouverte A Distance). Il est antérieur
à la vision actuelle de la scénarisation. Ainsi, la proposition du LICEF [Duf06] couvre la modélisation et
l’exécution de l’activité, mais n’a pas de langage de scénarisation sous-jacent.

Conception et opérationnalisation du scénario

Fig. 5.29 – Cas d’étude : modélisation de l’activité de l’équipe A dans Explor@Graph

Comme demandé, les apprenants sont bien séparés en deux équipes. Ils ont eux-même choisi leur
groupe pour le déroulement de l’activité. Après avoir pris connaissance des consignes, chaque équipe
accède à son interview d’expert, à un forum qui lui est propre et à un forum inter-groupes. Chaque
apprenant peut donner une réponse dans un test corrigé automatiquement. L’enseignant peut superviser
l’activité, observer l’avancement des participants et définir le vainqueur à partir des résultats du test.
Explor@Graph n’a pas d’outil de chat mais un forum finement intégré : la modélisation de l’activité par
72 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

les auteurs a nécessité de structurer le forum en créant une section par planète. Côté apprenant, on ignore
si l’accès aux ressources est séquentiel ou en parallèle. En fin d’activité, l’enseignant assure un débriefing
avec les deux groupes.

Evaluation

Le questionnaire final est décrit, joué et corrigé dans Explor@Graph. Lorsqu’un élève donne la bonne
réponse, l’enseignant en est informé, il peut alors déclarer le vainqueur en envoyant un message aux autres
apprenants et arrêter l’activité. Parallèlement l’enseignant dispose d’un outil de suivi de l’apprenant d’où
il peut voir la progression et les contributions des apprenants, ajouter des commentaires et des indices.

Discussion de la proposition

Toute comme les précédentes propositions, l’activité de chacun des deux groupes est décrite dans un
graphe indépendant, ce qui est contraignant en termes de temps de préparation puisque l’auteur doit
créer autant de graphes qu’il a de groupes. Par ailleurs, Explor@Graph reste sur une logique de tests,
même si l’interface de supervision du professeur permet une évaluation formative.

5.7.8 Proposition de l’Université de Grenoble


Introduction

Cette proposition [DLVL06] s’appuie sur le langage LDL (cf. 5.3.2) et son infrastructure LDI (cf.
5.5.4). Les auteurs n’ont visiblement pas utilisé d’outils auteur et l’environnement cible n’est pas spécifié.

Conception et opérationnalisation du scénario

Durant l’activité, l’enseignant explique les règles du jeu, distribue des indices dans le forum (en
utilisant des positions dans le langage), donne des informations additionnelles (en utilisant aussi des
positions), met fin à l’activité collaborative, délivre le questionnaire et le corrige. Chaque apprenant
consulte les règles du jeu, choisit son équipe en respectant l’équilibre et répond au questionnaire. Chaque
groupe analyse les indices disponibles, demande et donne des informations à un autre groupe, échange
des hypothèses avec ses coéquipiers.

Evaluation

Les auteurs ne précisent pas si l’évaluation sera à la charge de l’enseignant ou si elle sera gérée par
un outil (questionnaire corrigé automatiquement). L’enseignant peut néanmoins suivre la progression des
apprenants dans le tableau de bord de LDI et interagir en utilisant chat et forum.

Discussion de la proposition

Les auteurs se sont focalisés sur la modélisation de l’activité et ont peu traité l’implémentation et
l’évaluation.

5.7.9 Proposition de l’Université de Santiagao de Compostela


Introduction

Dans cette contribution [ALS06], l’équipe propose d’exprimer le scénario de l’activité en IMS-LD. Le
scénario est ensuite vérifié sémantiquement, corrigé puis joué dans RELOAD Learning Design Player49 .
Dans leur proposition, les auteurs lient IMS-LD et leur travail sur les ontologies.
5.7. Cas d’étude : le jeu des planètes 73

Fig. 5.30 – Cas d’étude : chaîne éditoriale de l’équipe de Santiagao de Compostela

Conception et opérationnalisation du scénario

L’activité est découpée en deux actes :


– acte collaboratif : les apprenants consultent les interviews, discutent dans le forum et négocient.
Parallèlement, l’enseignant rajoute des indices dans le forum et surveille l’activité ;
– acte individuel : les apprenants répondent au questionnaire.
Le scénario XML est créé avec RELOAD-LDE (cf. 5.4.1). Il est ensuite traduit dans le langage de repré-
sentation ontologique F-Logic [YKZ03] grâce à l’outil FLORA-2 [YKZ03]. Il est alors sémantiquement
vérifié et corrigé grâce aux axiomes ontologiques IMS-LD de niveau A et B préalablement implémenté
dans F-Logic. Un nouveau fichier XML est généré et joué dans Coppercore.

Evaluation

L’enseignant supervise l’activité dans le forum, ajoute de nouveaux indices et régule l’activité.

Discussion de la proposition

Dans cette proposition, les auteurs ne soulignent aucune limite particulière alors que l’évaluation des
apprenants n’est pas traitée. On peut aussi s’interroger sur l’intérêt d’une vérification sémantique par
les ontologies du scénario puisque l’outil auteur devrait normalement garantir le bon format du scénario
IMS-LD.

5.7.10 Proposition de l’Université de Valladolid


Introduction

Dans cette proposition [HLVFAP06], les auteurs modélisent l’activité avec l’éditeur Collage (cf. 5.4.3).
Le scénario IMS-LD produit est joué grâce au moteur Gridcole (cf. 5.5.2).
49 RELOAD-LDP, http ://www.reload.ac.uk/ldplayer.html
74 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

Conception et opérationalisation du scénario


Les auteurs ont choisi d’utiliser en le modifiant le modèle d’activité Jigsaw CLFP (Collaborative
Learning Flow Patterns) issu de l’éditeur Collage. Jigsaw est composé de trois phases consécutives :
– travail individuel de chaque participant ;
– travail en groupes d’experts ;
– travail en groupes Jigsaw c’est-à-dire en faisant des groupes constitués en prenant un expert de
chaque groupe d’experts.
Le modèle Jigsaw est utilisé pour régler des problèmes complexes n’ayant pas de solution à priori tels
que des problèmes de recherche scientifique avec fouille d’informations dans des articles. Ce modèle a
été modifié pour que seule l’activité collaborative Jigsaw ait lieu au début de l’activité : recherche des
indices par les groupes avec communication intra-groupe par chat et inter-groupes avec un forum. La
phase dédiée aux experts a été modifiée.

Evaluation
L’évaluation des questionnaires est automatique. Elle est réalisée par l’outil Quest [GRDM02] qui
permet de gérer des questionnaires dans un contexte Web. L’enseignant peut aussi superviser l’activité
collaborative en interagissant avec ses élèves dans le forum.

Discussion de la proposition
L’approche par modèles d’activité est intéressante. Elle part du constat qu’IMS-LD et les outils
auteurs associés ne sont pas utilisables par des non-techniciens. L’usage de modèles facilite le travail de
l’enseignant. Cependant, le type d’activité est contraint par les modèles même s’il est possible de les
modifier. De ce fait, l’enseignant n’est pas complètement libre dans son choix des activités.

5.7.11 Synthèse
Les équipes n’ont pas toutes spécifiées clairement la manière dont elles envisageaient l’évaluation des
apprenants dans cette activité. D’une manière générale, deux types d’évaluation ont été évoqués :
– l’évaluation sommative, qui se matérialise par l’évaluation de la réponse au questionnaire final. C’est
l’évaluation définie dans l’activité proposée et donc sous-entendue par toutes les propositions ou
presque.
– L’évaluation formative, lors des interactions entre apprenants et enseignant durant l’activité, grâce
aux outils de suivi (supervision) et/ou lors de la participation de l’enseignant dans le forum.

Université Types d’évaluation


Sommative (ques- Formative (forum) Formative (supervi-
tionnaire) sion)
Université Macquaries de Sydney X en compte élève X
Université Ouverte des Pays-Bas X X X
Télé-université du Québec X X
Universités de Bayonne et Laval devenue formative
Université de Montréal X X X
Université de Grenoble X X X
Université Santiago de Compostela X X
Université de Valladolid X X X

Fig. 5.31 – Cas d’étude : types d’évaluation pris en compte par les différentes équipes

Aucune des solutions n’aborde la possibilité d’une autre évaluation menée spontanément par l’ensei-
gnant. Par exemple, remplacer l’évaluation sommative par une évaluation par pairs pourrait avoir une
utilité pour lui.
5.8. Les besoins en matière d’évaluation 75

En général, l’évaluation ne fait pas l’objet dans les propositions d’une description explicite. Elle est
soit induite par l’activité (activité formative de la phase collaborative), soit laissée à la charge d’un outil
(évaluation finale sommative). La proposition vue en 5.7.6 est la seule à proposer une spécification dé-
taillée de l’évaluation individuelle dans le scénario.

Toutes les équipes proposent un seul scénario pour décrire le cas d’étude. Le scénario est donc très
spécialisé et faiblement réutilisable.

5.8 Les besoins en matière d’évaluation


Les propositions des équipes de recherche illustrent la faible prise en compte de l’évaluation par les
LMP et leurs infrastructures. Force est de constater que l’objectif premier de la scénarisation est avant
tout de scénariser les activités pédagogiques, et que la question de l’évaluation n’y est pas centrale. Elle
est certes traitée, par IMS-LD, par exemple, mais de manière partielle et insatisfaisante au regard des
pratiques en EIAH (cf. chapitre 3) puisque seul le "testing" y est abordé.

L’évaluation doit trouver sa place dans la scénarisation des activités pédagogiques. Tout comme la scé-
narisation permet à l’enseignant de construire les activités qu’il désire, nous pensons que la scénarisation
pourrait aussi lui permettre de mettre en oeuvre les évaluations qu’il souhaite mener.

Dans ce chapitre, y compris dans le cas d’étude, nous avons pu constater que la sous-représentation
de l’évaluation provient en partie des difficultés d’utilisation et d’expression des résultats issus d’une acti-
vité pédagogique scénarisée. Des participants au cas d’étude (comme Colin Tattersall [Tat06]) formulent
le même constat et réfléchissent aux solutions à apporter.

5.9 Conclusion de l’état de l’art


5.9.1 De l’évaluation en EIAH à l’évaluation dans les ENT
Sous toutes ces formes (cf. 2.4), l’évaluation est bien représentée en EIAH, elle y retrouve la place
qu’elle occupe traditionnellement dans l’enseignement. Chaque EIAH reste cependant très spécialisé sur
un type d’évaluation. Même si certains en associent plusieurs, ces évaluations ne sont pas interchangeables
d’un EIAH à l’autre. L’enseignant est donc tributaire du ou des paradigmes d’évaluation intégrés à l’EIAH
et n’a pas la liberté de mener une évaluation personnelle.

L’arrivée des ENT modifie le contexte traditionnel des environnements informatiques d’apprentissage.
Jusqu’alors des entités autonomes, les EIAH doivent aujourd’hui être interopérables avec l’ENT et ses
services. Pour supporter cette dynamique, des normes et standards ont vu le jour pour permettre cette
intégration. Dans le contexte d’ENT où les services qui émettent des résultats et ceux qui les utilisent
ou/et les évaluent sont censés interopérer, la question soulevée de la non-réutilisation des évaluations
entre EIAH ne devrait plus se poser. Or, malgré quelques tentatives, il n’existe pas de formalisme suffi-
samment expressif pour exprimer la diversité des résultats produits par les services de l’ENT. C’est là un
premier défi à surmonter. L’amélioration de l’interopérabilité permettrait ainsi à l’enseignant de choisir
ses services d’évaluation en fonction de ses besoins.

5.9.2 Pauvreté de l’évaluation dans les LMP


La question de l’interopérabilité dans les ENT s’est aussi posée du point de vue de l’intégration des
services nécessaires aux activités pédagogiques envisagées par l’enseignant. Pour aider l’enseignant dans
sa conception d’activités, des langages de modélisation pédagogique sont apparus pour spécifier des ac-
tivités jouées par des moteurs d’exécution dans un ENT cible. Compte tenu de la place de l’évaluation
dans les activités d’apprentissage, la scénarisation des activités d’apprentissage ne peut se faire sans la
76 Chapitre 5. L’évaluation et les Langages de Modélisation Pédagogique

scénarisation des activités d’évaluation qu’elles induisent. Or, dans les langages de modélisation et leurs
infrastructures, la récupération et l’utilisation des résultats à évaluer sont aussi problématiques. L’étude
d’IMS-LD et du jeu des planètes illustrent clairement la préoccupation des concepteurs de LMP de so-
lutionner ce problème. Une première ébauche a été réalisée dans IMS-LD pour permettre la réutilisation
des scores issus de questionnaires IMS-QTI. Mais ce n’est pas suffisant. Les scores ne représentent pas
l’intégralité des résultats exploitables pour l’évaluation.

La deuxième difficulté provient du manque d’expressivité des formalismes de scénarisation en matière


d’évaluation. Ils n’envisagent pas de traitement sur les résultats pour les évaluer, ils les utilisent simple-
ment dans le déroulement de l’activité. Or, une activité d’évaluation, comme nous le verrons au chapitre
8 peut être vue comme une activité particulière qui utilise et produit des résultats et observe d’autres
activités. C’est pourquoi les langages de modélisation pédagogique ainsi que leurs infrastructures doivent
être étendus afin de permettre la scénarisation des activités d’évaluation par et pour l’enseignant.
Deuxième partie

Proposition

77
Chapitre 6

Introduction

6.1 Objectifs
Dans l’étude de l’état de l’art, nous avons isolé deux verrous qui limitent les possibilités d’évaluation
des activités pédagogiques scénarisées.

Le premier obstacle provient de l’expression des résultats au sein même de l’ENT qui n’est pas stan-
dardisée. Nous avons vu que chaque EIAH définit son propre modèle de résultats, utilisé la plupart du
temps lors du contrôle des parcours pédagogiques. Ce modèle est rarement accessible à l’enseignant ou à
l’élève. Souvent implicite, il ne peut être échangé avec un autre EIAH ou un outil d’évaluation générique,
interdisant de ce fait l’exploitation de ces résultats hors du contexte de l’utilisation d’un EIAH particulier,
le plus souvent dans le cadre d’une discipline donnée.

La deuxième difficulté provient des langages de modélisation pédagogiques. En effet, si leurs concep-
teurs ont presque tous conscience de la nécessité de prendre en compte les résultats d’une activité, par
exemple pour permettre son évaluation dans le temps ou pour mieux l’adapter aux objectifs poursuivis
par l’enseignant, nous avons constaté au cours de notre étude que les langages qu’ils proposent possèdent
rarement des primitives qui permettent de prévoir dans un scénario la création et l’exploitation de ces
résultats au cours de l’activité qui en est issue.

Nous nous proposons donc, dans cette partie, en nous appuyant sur des exemples concrets et sur le
langage de scénarisation conçu par notre équipe de recherche qui présentait au début de ce travail des
"défauts" largement semblables à ceux de ses concurrents de commencer à combler quelques-unes des
lacunes qui empêchent de rendre explicite une activité d’évaluation au sein d’un scénario pédagogique.

Le premier chapitre de cette proposition nous permettra de poser les bases d’une normalisation des résul-
tats issus de l’activité des élèves au sein des Espaces numériques de travail (ENT). Cette première étape
doit nous permettre de réfléchir à quelques types de résultats canoniques et aux moyens de les représenter.

Le deuxième chapitre sera consacré à nos propositions d’extension du Langage de modélisation péda-
gogique (LMP) LDL (cf. 5.3.2) visant à lui donner la capacité d’exprimer des activités d’évaluation liées
de différentes manières aux activités pédagogiques représentées par ce même LMP.

Pour permettre le déploiement des scénarios pédagogiques et des scénarios d’évaluation associés [DM06d],
une architecture logicielle sera présentée, autour d’un pattern de conception centré sur l’observation. Cette
architecture fera l’objet du troisième chapitre.

Enfin, avant de conclure, nous reviendrons sur le cas d’étude "Le jeu des planètes" présenté précé-
demment. En réutilisant les concepts et les primitives élaborés au cours des précédents chapitres, nous

79
80 Chapitre 6. Introduction

envisagerons sa modélisation et sa mise en oeuvre. Nous montrerons en particulier comment ces primitives
répondent aux objectifs que nous avons cherché à atteindre au cours de ce travail.

6.2 Contexte de l’étude


Cet ensemble de propositions s’intègre dans le développement du LMP LDL et de son infrastructure
de scénarisation LDI. Les propositions formulées ici et les idées qui leur ont donné naissance ont été
discutées, étudiées et testées par les membres de l’équipe scénario du laboratoire SysCom de l’Université
de Savoie, les ingénieurs de la société de recherche et de développement Pentila 50 et l’équipe ARCADE
du laboratoire CLIPS-IMAG de l’Université de Grenoble.
L’objectif de ces équipes a été de créer et de disposer d’un langage de scénarisation basé sur un petit
nombre d’entités mais possédant des propriétés telles que de nombreuses activités pédagogiques différentes
pourraient être modélisées avec son aide.

50 Pentila, http ://www.pentila.com/


Chapitre 7

Expression des résultats

7.1 Introduction
Avant même de nous intéresser aux évolutions des langages et des infrastructures de scénarisation
rendues nécessaires par la prise en compte des activités d’évaluation, et comme nous l’avons indiqué dans
la première partie de ce mémoire, il nous paraît indispensable de définir un modèle capable d’exprimer et
de représenter les résultats issus des services pédagogiques d’un ENT, les EIAH. En nous limitant volon-
tairement et raisonnablement aux résultats rencontrés le plus fréquemment dans les EIAH, en particulier
ceux étudiés dans notre état de l’art, nous proposons de construire un modèle de résultats. Ce modèle
doit nous permettre de spécifier un format pour leur expression, qui pourra ensuite être pris en compte
par les concepteurs d’EIAH souhaitant assurer à leurs outils un niveau d’interopérabilité satisfaisant.

7.2 Produit de l’activité de l’apprenant et résultat


Tous les EIAH produisent des résultats. Du point de vue de l’évaluation, une première distinction des
résultats peut être faite. En effet, en considérant les systèmes d’évaluation sommative tels que les CAT
(cf. 3.2.1), qui utilisent des questionnaires à choix multiples, nous pouvons remarquer que deux types de
"résultats" sont utilisés :
– la réponse de l’apprenant à la question qui lui est posée ;
– le score obtenu par l’apprenant à cette question.
La réponse de l’apprenant et le score sont indéniablement des "résultats". Mais ce sont des résultats
de nature différente. La réponse de l’apprenant est une production de ce dernier durant l’activité d’ap-
prentissage, tandis que le score est le résultat de l’évaluation de cette production. Il est important de bien
distinguer ces deux types de résultats qui sont dans une activité d’évaluation complémentaires, mais bien
différents.

Fig. 7.1 – Lien entre produit de l’activité de l’apprenant et résultat d’évaluation

81
82 Chapitre 7. Expression des résultats

7.3 Caractéristiques des produits de l’activité de l’apprenant et


critères d’évaluation
Les produits de l’activité de l’apprenant font rarement l’objet d’une évaluation globale et indifféren-
ciée. Seules certaines caractéristiques de ces produits sont évaluées, à un instant donné. Par exemple, les
professeurs d’histoire-géographie ne tiennent généralement pas compte des fautes d’orthographes conte-
nues dans les copies qu’ils corrigent, même s’ils sont attentifs à la qualité de l’expression de leurs élèves.
Ces fautes, caractéristiques de certaines de ces copies, ne font pas partie des critères retenus par l’en-
seignant pour évaluer le travail qui leur est remis. Inversement, les enseignants de français seront plus
attentifs à ces erreurs qu’aux fondements historiques des faits qui leur sont rapportés.

L’évaluation est un processus au cours duquel l’enseignant sélectionne, sur la base des critères qu’il
s’est fixé, quelques caractéristiques du produit livré par l’élève et, par une méthode de son choix, accorde
une valeur à ces caractéristiques.

Le produit dans son ensemble prend la valeur accordée à quelques-unes de ses caractéristiques par l’en-
seignant. Quand l’élève annonce à ses parents qu’il a obtenu 12 sur 20 à sa rédaction, il ne donne pas de
détails sur la manière dont cette évaluation a été conduite.

Les contestations fréquentes en matière d’évaluation portent généralement sur ces critères, sur les ca-
ractéristiques du produit ou sur l’application de la méthode qui a conduit à lui donner une valeur. Par
exemple :
– le professeur n’a pas tenu compte des efforts de documentation préalable à la rédaction ;
– le professeur note à "la tête du client" ;
– le professeur attache trop d’importance à la forme et pas assez aux idées.
En définitive, les caractéristiques d’un produit sont autant de facettes qui peuvent être sélectionnées ou
être ignorées par l’enseignant en vue de les évaluer.

Fig. 7.2 – Modélisation de l’évaluation des caractéristiques d’un produit


7.3. Caractéristiques des produits de l’activité de l’apprenant et critères d’évaluation 83

Si nous reprenons la définition de Hadji concernant l’évaluation (cf. 2.3), le produit de l’activité et
ses caractéristiques expriment un référé mis au regard d’un référent constitué des critères de l’évaluation.
Mais, la vision que nous avons de l’évaluation, si elle est en accord avec la définition de Hadji, va plus
loin dans la mesure où elle tient compte de l’ensemble du processus.

Fig. 7.3 – Modélisation de l’évaluation en EIAH au regard de la définition de Hadji [Had90] de l’évaluation

Ces réflexions nous permettent d’ébaucher un premier modèle de l’évaluation et des résultats qu’elle
fournit.
Ce modèle comprend les éléments suivants :
– l’EIAH dans lequel se déroule l’activité ;
– le produit de l’activité de l’apprenant dans l’EIAH ;
– les caractéristiques sélectionnées par l’évaluateur comme représentatives du produit ;
– les critères d’évaluation de ces caractéristiques ;
– la méthode mise en oeuvre pour accorder une valeur à ces caractéristiques ;
– le résultat de l’évaluation, c’est-à-dire l’ensemble des valeurs accordées au produit.
Pour illustrer ce modèle, prenons l’exemple d’un EIAH de type CAT, étudié dans l’état de l’art.
Pour évaluer la réponse de l’apprenant, et produire un résultat, un système de type CAT doit détenir
des informations complémentaires sur la question posée. Il doit évidemment pouvoir vérifier quelles sont
la ou les bonnes réponses, ce qui supposent que celles-ci ont été inscrites au préalable dans le système ou
qu’elles sont demandées à l’enseignant au moment de la correction. En reprenant le schéma de modélisation

Fig. 7.4 – Modélisation de l’évaluation dans un CAT

de l’évaluation, le produit de l’apprenant est la question à laquelle a répondu l’élève. La caractéristique


84 Chapitre 7. Expression des résultats

évaluée est la réponse donnée. Cette caractéristique est évaluée par comparaison avec la bonne réponse
qui est le critère d’évaluation. Le résultat de cette évaluation est le score de l’apprenant obtenu à cette
question.
En utilisant une notation adhoc, un résultat d’évaluation dans un CAT pourrait s’exprimer de la
manière suivante :

EIAH{CAT}

Produit{Question 4}

Caractéristique{4/3}

Critère{Réponse=3/4}

Evaluation{Comparaison avec la bonne valeur et attribution d’un


score}

Résultat{0}

L’exemple ci dessus est volontairement réducteur. Bien d’autres caractéristiques auraient pu être associées
au produit tel que le temps de réalisation de la question par exemple. Ce résultat exprime l’évaluation
de la question 4 d’un CAT dans laquelle l’apprenant a donné une réponse valant 4/3 alors que la réponse
juste était 3/4. Le résultat de l’évaluation est un score, l’apprenant n’a donc obtenu aucun point à cette
question.

7.4 Résultat et compétence


Les systèmes d’évaluation diagnostique utilisent la notion de compétence pour évaluer. En effet, le
score de l’apprenant ne suffit pas toujours. Il faut aussi pouvoir mettre ce score en rapport avec une
maîtrise plus ou moins étendue du domaine ou de la discipline à propos de laquelle il est évalué, pour
pouvoir, par exemple, proposer une stratégie d’acquisition ou des actions de remédiation adaptées à son
niveau. La description de ces compétences est complexe. Elle fait nécessairement appel aux experts de la
discipline et de sa didactique. Le résultat obtenu par l’apprenant au cours d’une session dénote dans ce
cas-là une plus ou moins grande maîtrise d’une compétence. Les logiciels TDmaths (cf. 3.2.3) utilisant des
compétences dites transversales ou Pépite (cf. 3.2.2) qui décrit les compétences de l’apprenant en algèbre
fournissent un exemple particulièrement typique de ce type de résultats. La compétence vient s’ajouter
aux autres éléments qui permettent d’exprimer un résultat d’évaluation :
– l’EIAH dans lequel se déroule l’activité ;
– le produit de l’activité de l’apprenant dans l’EIAH ;
– les caractéristiques de ce produit ;
– les critères d’évaluation de ces caractéristiques ;
– l’évaluation de ces caractéristiques au regard des critères d’évaluation ;
– le résultat de l’évaluation ;
– la ou les compétences associées au résultat.
En reprenant l’exemple de CAT précédent, c’est-à-dire le résultat obtenu par l’apprenant à la question
4, ce résultat illustre la capacité de l’apprenant à simplifier une fraction. En reprenant la notation adhoc
employée, ce résultat peut s’exprimer de la manière suivante :

EIAH{CAT}

Produit{Question 4}

Caractéristique{4/3}
7.5. Acteurs de l’évaluation 85

Critère{Réponse=3/4}

Evaluation{Comparaison avec la bonne valeur et attribution d’un


score}

Résultat{0}

Compétence{Capacité à simplifier une fraction réductible}

7.5 Acteurs de l’évaluation


Dans le cas de OASYS qui propose des évaluations mutuelles, encore nommées évaluation par les pairs,
sont évaluées les productions des apprenants, en l’occurrence des programmes informatiques au regard de
critères préalablement fixés par l’enseignant. Ces programmes informatiques, productions des apprenants,
peuvent être considérés comme un "résultat" de leur activité. Ce qui fait défaut, c’est l’appréciation portée
par leurs camarades ou leurs enseignants, leur jugement sur la qualité de ce travail, ses propriétés, sa
conformité aux attentes de l’enseignant. L’évaluation sépare et met en relation ces deux types de résultats.
Les évaluations distinguent :
– le résultat comme production d’un tiers ;
– le résultat comme jugement d’un tiers.

Parfois le tiers qui produit est le même que celui qui évalue (auto-correction). La plupart du temps,
le tiers qui produit est différent de celui qui évalue. Souvent le tiers qui produit et le tiers qui évalue sont
en relation de subordination (disymétrie). Plus rarement, dans le cas de l’évaluation par pairs, le tiers
qui produit et celui qui évalue sont en relation symétrique. Une production est donc associée à un ou
plusieurs acteurs. Ces productions sont évaluées, là encore, par un ou plusieurs acteurs qui peuvent être
différents ou identiques.

En réutilisant notre notation adhoc, un résultat d’évaluation mutuelle d’une question telle qu’on les
rencontre dans les CAT peut s’exprimer de la manière suivante :

EIAH{CAT}

Produit{Question 4}

Auteur{Paul}

Caractéristique{4/3}

Critère{Réponse=3/4}

Evaluation{Comparaison avec la bonne valeur et attribution d’un


score}

Evaluateur{Pierre}

Résultat{0}

Compétence{Capacité de simplifier une fraction réductible}

Par rapport à l’exemple précédent, deux informations essentielles ont été ajoutées ; l’auteur du produit
ainsi évalué et l’auteur de l’évaluation. Le fait de préciser ces informations permet de requalifier le résultat
initialement engendré par une évaluation sommative en résultat d’évaluation formatrice.
86 Chapitre 7. Expression des résultats

7.6 Modèle de résultats


L’évaluation porte sur un processus complet, représenté par un ensemble d’étapes significatives dont
chacune d’entre elles peut faire l’objet d’une évaluation spécifique et dont le cumul peut aboutir à une
évaluation globale, la méthode de cumul étant précisée ainsi que les pondérations éventuelles.

Du point de vue de l’apprenant ou de l’enseignant, il faut ici distinguer deux étapes de l’activité qui
interviennent dans la construction de l’évaluation. Au cours de l’activité d’apprentissage, l’apprenant
produit des résultats. Leur statut de résultat est incontestable puisqu’ils sont produits par l’apprenant
de manière consciente, lors d’une activité qui a explicitement pour objectif d’obtenir ces résultats. Ces
résultats valent pour l’apprenant lui-même. Ce dernier sait qu’ils feront ultérieurement l’objet d’une éva-
luation mais il peut lui-même estimer la valeur de ces résultats. En ce sens, ces résultats sont différents des
traces que l’apprenant laisse derrière lui au sein d’un ENT. Ils sont le produit d’une activité consciente
orientée vers la recherche d’une solution, la fabrication d’un objet répondant à un certain nombre de
critères, la proposition d’un énoncé dont l’apprenant sait qu’il sera évalué par le système, par un pair ou
par un enseignant, à un moment ou à un autre.

Ces résultats sont aussi différents de ceux qui seront produits au terme de l’évaluation par l’évaluateur
appliquant sa méthode en fonction des critères qu’il a fixé. Pour reprendre la terminologie des sciences
de l’éducation, l’évaluation prend pour objet un référé.

De ce point de vue, les résultats d’une évaluation sont le produit d’une transformation des résultats
de l’apprenant auxquels est appliqué, en fonction de critères fixés, une méthode sélectionnée ou élaborée
par l’enseignant.

Communiquer les résultats, c’est présenter :


– les résultats de l’apprenant ;
– les critères d’évaluation ;
– la méthode appliquée aux résultats de l’apprenant ;
– les résultats transformés par application de la méthode.

Pour pouvoir les réutiliser dans un contexte différent, par exemple dans celui d’une évaluation globale
inscrite dans les outils de scolarité des ENT, il faut pouvoir décrire explicitement ces modes de construc-
tion.

Cela nous a conduit à élaborer le modèle de résultats suivant (cf. figure 7.5). Dans ce modèle, nous
avons essayé d’expliciter le déroulement d’une évaluation en EIAH prenant en entrée des productions
de l’apprenant et retournant un résultat d’évaluation. Suivant ce modèle, un résultat est associé à des
acteurs qui produisent une ou plusieurs productions au sein d’un EIAH. Chaque production possède des
caractéristiques. Nous avons vu que seules quelques caractéristiques étaient évaluées suivant une méthode
et des critères d’évaluation. Cette évaluation est menée par des acteurs qui peuvent être différents ou non
des auteurs des produits évalués. Cette évaluation engendre des résultats qui peuvent être significatifs
d’une ou de plusieurs compétences des auteurs des produits.
7.7. Format des résultats 87

Fig. 7.5 – Vue UML du modèle de résultats

Ce modèle est relativement générique dans le sens où il permet de modéliser un grand nombre de
résultats produits par les ENT. Nous éprouverons plus loin dans ce chapitre l’expressivité de ce modèle.
Mais il est au préalable nécessaire de retranscrire ce modèle dans un formalisme permettant d’exprimer
les résultats.

7.7 Format des résultats


Les formalismes utilisés pour répondre aux problèmes d’interopérabilité dans les ENT (cf. 4.3) utilisent
très largement le langage XML. Notre proposition de formalisme de résultats s’appuie elle aussi sur ce
langage.
Le formalisme est issu du modèle de résultats dont il reprend tous les éléments. Dans la conception
du formalisme, différents choix ont été faits pour représenter les liens entre les éléments décrits dans le
modèle. Ces choix d’ordre esthétique plus que scientifique nous ont conduits au formalisme que nous
présentons ici.
Pour spécifier le formalisme dans le langage XML, deux solutions sont possibles. La première consiste à
définir une DTD (Document Type Definition) qui va spécifier textuellement les éléments du formalisme
ainsi que leur organisation. La seconde consiste à définir un schéma XSD (XML Schema Definition) qui
permet de spécifier le formalisme comme le permet une DTD mais de manière graphique, par la création
d’un schéma. L’usage d’un schéma XSD améliore la lisibilité de la spécification du formalisme de résultats
et simplifie sa création.
88 Chapitre 7. Expression des résultats

7.7.1 Présentation générale

Fig. 7.6 – Vue globale du schéma XSD spécifiant le formalisme de résultats

L’élément central du formalisme est le résultat. Nous avons choisi d’encapsuler tous les autres com-
posants décrits par le modèle dans cet élément. Ces autres composants sont optionnels. Cela se justifie
notamment par le fait que dans certains cas les services de l’ENT n’évaluent pas les produits des ap-
prenants. Il nous fallait tout de même pouvoir exprimer des produits dans le formalisme en vue de les
évaluer ultérieurement.

Dans le formalisme, un résultat d’évaluation est unique, il est identifié et localisé par son URI (Uni-
form Resource Identifier). Un résultat d’évaluation est produit à un instant donné lors d’une session. Le
contexte Web de production d’un résultat nous impose donc de le localiser au cours de la session. Chaque
résultat possède une description qui lui donne un sens. Un résultat est obtenu à partir de l’évaluation
d’un ou plusieurs produits. Et un résultat d’évaluation est associé à des acteurs qui sont évalués. Un
acteur possède un identifiant unique. Bien souvent, cet identifiant dans un ENT est son "login". Chaque
acteur possède un nom et joue un rôle particulier dans l’élaboration du produit.

Un résultat a une valeur (valeurResultat) qui peut par exemple être un score, une appréciation, un
rang, suivant le type d’évaluation qui est mené. Il reflète la mise en oeuvre de compétences dont nous
présenterons l’expression plus loin.

Nous allons désormais entrer dans les détails de la spécification du formalisme et décrire en détail les
éléments Produit, Evaluation, valeurResultat et compétences.
7.7. Format des résultats 89

7.7.2 Expression des produits des apprenants

Fig. 7.7 – Première vue du schéma XSD des produits

Tout produit est typé. Par type nous entendons la nature du document du produit, une image, un
texte, une vidéo. Pour définir ce type, nous utilisons la typologie MIME (Multipurpose Internet Mail
Extensions) au besoin étendue. Le type image jpeg en MIME s’exprimera par "image/jpeg". Un ques-
tionnaire IMS-QTI aura comme type "text/xml". La typologie MIME n’est toutefois pas suffisante pour
donner un sens aux produits. En effet, tout fichier XML n’est pas un questionnaire et inversement. Chaque
produit est donc décrit (description) pour lui donner un sens et ainsi lever les ambiguïtés sur sa nature.

Tout produit possède des caractéristiques. Par exemple, une dissertation (description) de type "appli-
cation/msword" (type) possède différentes caractéristiques intrinsèques, tels que le nombre de mots, sa
langue, son plan, son sujet, son titre, etc. Elle possède aussi des caractéristiques externes, telles que sa
date de création, la durée de sa réalisation, etc. Il est nécessaire de définir les caractéristiques du produit
car l’évaluation portera sur certaines d’entre elles. Les caractéristiques évaluées seront choisies suivant les
besoins de l’évaluateur.

Une caractéristique dans le formalisme de résultats est elle aussi typée. Comme nous venons de l’évoquer,
il existe deux grandes catégories de types que nous venons d’évoquer. L’évaluation de caractéristiques
intrinsèques visera à évaluer le produit. L’évaluation de caractéristiques externes permettra d’évaluer la
démarche utilisée pour créer le produit ce qui est en accord avec le point de vue de Campanale [Cam01]
qui différencie aussi l’évaluation de la production de l’évaluation de démarche. Pour autant, et nous le
verrons dans l’usage du modèle de résultats par le langage LDL, le type d’une caractéristique doit être
plus explicite, afin de permettre son utilisation dans un scénario. En ce sens, et pour des besoins implé-
mentatoires, nous avons définis des types de caractéristiques.

Dans la catégorie des caractéristiques intrinsèques, nous avons introduit les types suivants :
– le contenu (contenu) d’un document textuel ou d’un échange entre apprenants ;
– la réponse d’un apprenant à une question, un exercice, ou un questionnaire (reponse) ;
90 Chapitre 7. Expression des résultats

– un score délivré automatiquement par un moteur de questionnaires et qui joue plus le rôle d’indi-
cateur que de résultat d’évaluation.
De même, les caractéristiques externes peuvent être :
– durée d’élaboration du produit (duree) ;
– nombre d’accès au produit durant son élaboration (acces) ;
– l’état d’achèvement d’un produit (etat) qui peut être en cours (encours), terminé (termine) ou non
débuté (nondebute).
Cette typologie est réductrice, et peut être étendue suivant les besoins rencontrés par l’ENT et les EIAH
qui l’accompagnent.

Une caractéristique possède une description et une valeur qui peut être de n’importe quel type (durée,
date, entier, tableau, chaîne de caractères, etc.).

Fig. 7.8 – Seconde vue du schéma XSD des produits

Un produit est le fruit du travail d’un ou plusieurs acteurs. Ces acteurs peuvent être ceux évalués ou
non. Si l’acteur qui réalise le produit est aussi un acteur évalué (acteursEvalues), il n’est pas nécessaire
de le redéfinir ici mais il doit être référencé par son identifiant (acteurEvalue). Si un acteur qui réalise le
produit n’est pas évalué, il est nécessaire de le définir. Ce cas de figure se rencontre dans les évaluations
de groupe telle que l’évaluation de la participation d’un apprenant dans une discussion. La discussion est
le produit de plusieurs apprenants, mais un seul de ces apprenants peut être évalué.

Le produit est réalisé au sein d’un EIAH intégré à l’ENT. Dans le formalisme de résultats, un EIAH
possède un type. Par exemple exerciseur, outil de communication ou même outil de scolarité sont des
types d’EIAH. L’EIAH est identifié et localisé par une URI. Les autres éléments d’un EIAH sont son
nom et sa version. L’élément version est important puisque les produits réalisables sont susceptibles de
différer d’une version à l’autre : par exemple, un questionnaire dans le cas d’un CAT peut avoir évolué,
etc.
7.7. Format des résultats 91

7.7.3 Expression de l’évaluation des produits

Fig. 7.9 – Première vue partielle du schéma décrivant l’évaluation

Une évaluation comme nous l’avons vu en 2.4 appartient à une famille d’évaluation (typeEvaluation).
Elle peut être pronostique, diagnostique, formative, formatrice, sommative ou encore normative. Elle
évalue certaines caractéristiques des produits. Chaque caractéristique évaluée (laCaractéristique) est as-
sociée à une caractéristique définie dans un produit. Le contenu de la balise "laCaractéristique" est donc
l’identifiant d’une caractéristique d’un produit.

Une évaluation peut être critériée (cf. 2.4). Elle repose alors sur des critères d’évaluation qui permettent
de juger certaines caractéristiques des produits. Un critère se décrit textuellement. Il peut avoir une
valeur. Par exemple, un critère d’évaluation de la réponse d’un apprenant à une question peut être la
bonne réponse. Cette bonne réponse a une valeur, qu’elle soit textuelle, chiffrée ou autre. Le respect ou
non de ce critère par le produit de l’apprenant est associé à une valeur qui est spécifiée par un barème.
Par exemple, donner la bonne réponse (valeur) vaut six points (bareme).
92 Chapitre 7. Expression des résultats

Fig. 7.10 – Seconde vue partielle du schéma décrivant l’évaluation

Une évaluation est réalisée par des acteurs qui peuvent être les acteurs évalués (cas de l’évaluation
formatrice cf. 2.4) ou non. Ces acteurs appliquent une méthode au regard des critères d’évaluation et
des caractéristiques évaluées. Une méthode peut être une fonction permettant de calculer un score, une
comparaison entre caractéristiques évaluées et critères d’évaluation, etc. Mais ce peut être aussi, et nous
le verrons dans le cadre de l’évaluation normative, le calcul d’un rang ou d’une moyenne.

7.7.4 Expression de la valeur d’un résultat

Fig. 7.11 – Expression de la valeur d’un résultat d’évaluation

La valeur du résultat de l’évaluation (valeurResultat) n’est pas une simple valeur (texte, nombre,
tableau, classement, etc.). Cette valeur a un sens donné par les autres éléments du formalisme (Produit,
7.7. Format des résultats 93

Evaluation, critères, etc..) mais aussi par une justification. Cette justification peut être une synthèse des
erreurs du ou des apprenants qui ont influées sur la valeur du résultat. Chaque erreur est décrite et asso-
ciée à une caractéristique évaluée ainsi qu’a un critère d’évaluation. La justification permet de détailler
l’évaluation qui a été menée et de donner une correction aux apprenants, comme le propose TDmaths
(cf. 3.2.3) par exemple. Cette justification permet aux apprenants d’intégrer les erreurs commises dans
le cadre d’une évaluation formative. Cette justification améliore la transparence de l’évaluation pour les
apprenants, mais aussi pour les enseignants. La valeur du résultat peut également être commentée afin
de retranscrire les appréciations des enseignants que l’on retrouve fréquemment sur les copies d’examens.

Dans la figure 7.6, un résultat est associé à des compétences. L’expression des compétences de l’apprenant
fait l’enjeu de nombreux travaux en EIAH, en particulier dans le réseau européen TENCompetence51 .
Nous avons donc choisi de réutiliser un formalisme au lieu d’en reconstruire un.

7.7.5 Expression des compétences associées au résultat


Nous avons réutilisé le formalisme IMS-RDCEO [Con02] en cours de standardisation par l’IEEE. Ce
formalisme permet d’exprimer des compétences en vue de les indexer et de les partager entre environne-
ments d’apprentissage. Ces compétences sont centralisées dans des catalogues qui peuvent être référencés
par différents formalismes, tels que LOM (cf. 4.3.2), IMS-LIP [Con05a], IMS-SS52 , mais aussi par notre
formalisme de résultats.

Fig. 7.12 – Schéma XSD du format IMS-RDCEO

Le formalisme IMS-RDCEO est constitué de peu d’éléments (cf. figure 7.12). Son utilisation est simple.
Chaque compétence possède un identifiant unique. Cette identifiant est exprimé par une URL pointant sur
un catalogue de compétence ainsi que sur l’identifiant de la compétence dans le catalogue de compétences.
Chaque compétence doit posséder un intitulé (title). La langue dans laquelle l’intitulé est aussi exprimée
(langstring). Une compétence peut aussi contenir des informations facultatives, telles qu’une description,
une définition ou encore le schéma et la version du schéma de métadonnées utilisé. Alors que la description
est textuelle, une définition peut être structurée par un modèle. Grâce à ces possibilités d’extension
(extelement) et de prise en compte d’autres modèles, RDCEO est un formalisme ouvert et évolutif.
51 Site Web, http ://www.tencompetence.org/
52 Site Web, http ://www.imsproject.org/simplesequencing/index.html
94 Chapitre 7. Expression des résultats

Expression d’une compétence dans le formalisme IMS-RDCEO :

<rdceo>
<identifier>http://ld.pentila.com/rdceo_cat1.xml#cpa_eg</identifier>
<title>
<langstring xml:lang="fr">Ecriture fractionnaire 6eme</langstring>
</title>
<description>
<langstring xml:lang="fr">Transcrire un énoncé textuel en écriture fractionnaire
</langstring>
</description>
<metadata>
<rdceoschema>IMS RDCEO</rdceoschema>
<rdceoschemaversion>1.0</rdceoschemaversion>
</metadata>
</rdceo>

Fig. 7.13 – Schéma XSD des compétences dans le formalisme de résultats

Dans le formalisme de résultats, chaque résultat peut être associé à une ou plusieurs compétences.
Ces compétences ne sont pas exprimées dans le formalisme de résultats. Le format de résultats permet
de pointer sur les identifiants de compétences exprimées dans un catalogue externe.

<competences>
<competence rdceoid="http://ld.pentila.com/rdceo_cat1.xml#cpa_eg"/>
</competences>

Une compétence peut intégrer des sous compétences et peut s’exprimer alors sous la forme d’une structure
comme l’illustre l’exemple ci-dessous.

<competences>
<competence rdceoid="http://ld.pentila.com/rdceo_cat1.xml#cpa_eg">
<competence rdceoid="http://ld.pentila.com/rdceo_cat1.xml#cpa_eg2"/>
<competence rdceoid="http://ld.pentila.com/rdceo_cat1.xml#cpa_eg3"/>
</competence>
</competences>

Comme le souligne P. Karampiperis [KSF06], certains aspects du formalisme IMS-RDCEO sont li-
mités. Il ne permet pas, par exemple, d’exprimer une échelle de compétences, qui pourrait être utile
pour ne pas simplement associer un résultat et une compétence, mais pour positionner l’apprenant au
vue de son résultat dans une échelle de compétences. P. Karampiperis propose en ce sens des extensions
au langage IMS-RDCEO qui pourraient notamment permettre d’exprimer certains résultats d’évaluation
diagnostique.
7.8. Plage de validité du modèle 95

....
<title>
<langstring xml:lang="fr">Ecriture fractionnaire 6eme</langstring>
</title>
<description>
<langstring xml:lang="fr">Transcrire un énoncé textuel en écriture fractionnaire
</langstring>
</description>
<level>
<langstring xml:lang="fr">niveau A1</langstring>
</level>
...

Un niveau de compétence dans le formalisme IMS-RDCEO augmenté des propositions de P. Karam-


piperis s’exprime comme ci-dessus. Ce niveau de compétence peut être associé à un résultat d’évaluation
diagnostique exprimé dans notre formalisme. Ce résultat reflétera alors l’atteinte par le ou les appre-
nants de ce niveau de compétence. Par exemple, si la valeur du résultat est un booléen alors le résultat
témoignera de l’obtention ou pas de ce niveau de compétence.

7.8 Plage de validité du modèle


7.8.1 Méthodologie
La question à laquelle nous allons maintenant essayer de répondre est la suivante. Ce modèle peut-il
représenter la "réalité" des résultats issus des évaluations ? Pour y répondre, nous nous sommes intéressés
aux propriétés qui caractérisent les évaluations en EIAH. Que ce soit du point de vue :
– des types d’évaluation, qu’elles soient sommatives, formatives, diagnostiques, formatrices, pronos-
tiques ou encore normatives ;
– des objets évalués, que ce soient des compétences, des connaissances, des savoir-faire, des compor-
tements, des capacités mentales telles que la mémorisation, mais aussi la participation dans une
activité de groupe, ou les procédures mises en oeuvre dans l’élaboration d’un produit ;
– les acteurs de l’évaluation, les élèves, un élève, un enseignant, un jury, etc. ;
– des types d’activité évaluées : simulation, exercices, production d’un document, mémorisation, pré-
sentation ;
– de la passation de l’évaluation, en présentielle ou à distance.
Ces propriétés de l’évaluation en EIAH peuvent être associées les unes aux autres pour fournir une
multitude de situations d’évaluation différentes. Le formalisme de résultats issu du modèle de résultats
doit être en mesure d’exprimer les résultats produits par ces évaluations. Dans ce qui suit, le modèle va
être discuté pour chaque type de propriété de l’évaluation.

7.8.2 Les types d’évaluation


Le formalisme de résultats permet d’exprimer le type d’évaluation qui a produit le résultat. Dans
l’élément "Evaluation" du formalisme un attribut type a cette fonction. Ci-dessous est exprimé un exemple
d’évaluation sommative (cf. 2.4) d’une dictée. Cette évaluation s’intéresse à l’orthographe de la dictée
réalisée par un apprenant. Le critère d’évaluation est la faute d’orthographe, chacune étant sanctionnée
par le retrait d’un point, sachant que la note maximale est 20 et que l’élève ne peut obtenir une note
négative. Le résultat de cette évaluation est de 18 sur 20.

<Resultat>
....
<Evaluation typeEvaluation="Sommative">
<methode>Recherche de fautes d’orthographe</methode>
<evalue>
96 Chapitre 7. Expression des résultats

<laCaracteristique>Orthographe_dictée</laCaracteristique>
</evalue>
<realiseePar>
<Acteur id="gdura">
<role>enseignant</role>
<nom>Guillaume Durand</nom>
</Acteur>
</realiseePar>
<reposeSur>
<Critere id="1123">
<description>retrait d’un point par faute d’orthographe</description>
<bareme typeValeur="integer" max="20" min="0">-1</bareme>
</Critere>
</reposeSur>
</Evaluation>
....
<valeurResultat>
<valeur typeValeur="integer" max="20" min="0" pas="1">1>18</valeur>
<seJustifiePar>
<Erreur caractref="11" critereref="1123">
<description>chaîne au lieu de chêne</description>
</Erreur>
<Erreur caractref="11" critereref="1123">
<description>Attention plages et au pluriel!</description>
</Erreur>
</seJustifiePar>
<commentaire>En progrès seulement deux fautes !</commentaire>
</valeurResultat>
....
</Resultat>

La justification du résultat permet d’expliciter les fautes de l’élève. C’est un élément important, no-
tamment dans une évaluation formative puisqu’il permet à l’apprenant de comprendre ses erreurs et à
l’enseignant d’adapter son enseignement. Dans le cas de l’évaluation sommative, l’élément essentiel est
la note obtenue par l’apprenant. Nous voyons donc que le formalisme permet d’exprimer aussi bien une
évaluation formative que sommative et que les éléments clés de chacune de ces deux évaluations sont bien
exprimables dans le formalisme.

Dans une évaluation pronostique, l’élément clé ne sera ni la note ni les erreurs de l’apprenant, mais
plutôt le jugement qu’émettra l’enseignant sur l’accession de l’apprenant à une nouvelle formation. Ce
jugement est prononcé à l’égard du résultat d’évaluation de l’apprenant et peut être émis sous la forme
d’un commentaire (commentaire) de ce résultat.

Dans le cas d’une évaluation formatrice, la seule variante aurait été la ou les personnes qui réalisent
l’évaluation, puisque dans ce cas de figure, les évaluateurs sont les élèves. Il suffit dans ce cas de figure,
de modifier les auteurs de l’évaluation.

Dans le cas d’une évaluation diagnostique (cf. 2.4), l’accent est mis sur les compétences de l’appre-
nant. L’élément central de cette évaluation est donc le niveau de compétence que reflète le résultat. La
compétence est ici la maîtrise de l’orthographe, exprimée dans le formalisme IMS-RDCEO.

La description d’une évaluation normative est, en revanche, radicalement différente. Elle s’appuie non
pas sur le seul produit d’un apprenant, mais sur les produits de plusieurs apprenants. L’évaluation nor-
mative s’appuie sur des résultats préalablement obtenus (cf. 2.4). Le résultat d’une telle évaluation peut
7.8. Plage de validité du modèle 97

être une note moyenne, mais aussi un classement ou le rang d’un élève. Dans ce cas, deux solutions sont
envisageables. La première consiste à utiliser des caractéristiques de type score associées au produits des
apprenants. Cette solution est particulièrement bien adaptée aux questionnaires corrigés automatique-
ment par un moteur de questionnaire. La seconde, plus adaptée à notre situation où une évaluation a été
menée sur les dictées en respectant notre formalisme, consiste à réutiliser le résultat de chaque apprenant
pour l’évaluation de la dictée. Ces résultats, identifiés par leur URI, deviennent alors une caractéristique
à évaluer, ce que nous pouvons exprimer dans notre formalisme de la manière suivante :

<Resultat>
<uri>http://ld.pential.com/Produits/4C/Pierre/Dictee1/rang</uri>
<dateTime>2005-11-22-17:00:55</dateTime>
<description>Classement de paul en dictée</description>
<session>245HJU6TY</session>
<acteursEvalues>
<Acteur id="pdura">
<role>eleve</role>
<nom>Pierre Durand</nom>
</Acteur>
</acteursEvalues>
<Evaluation typeEvaluation="Normative">
<methode>Classement des élèves en fonction de leurs résultats</methode>
<evalue>
<laCaracteristique>http://ld.pential.com/Produits/4C/Paul/Dictee1/score
</laCaracteristique>
<laCaracteristique>http://ld.pential.com/Produits/4C/Pierre/Dictee1/score
</laCaracteristique>
<laCaracteristique>http://ld.pential.com/Produits/4C/Philippe/Dictee1/score
</laCaracteristique>
</evalue>
<realiseePar>
<Acteur id="gdura">
<role>enseignant</role>
<nom>Guillaume Durand</nom>
</Acteur>
</realiseePar>
</Evaluation>
<competences>
<competence rdceoid="http://ld.pentila.com/rdceo_cat1.xml#ortho4"/>
</competences>
<valeurResultat>
<valeur typeValeur="integer" max="1" min="3" pas="1">2</valeur>
<commentaire>C’est moyen, fais un effort.</commentaire>
</valeurResultat>
</Resultat>

Dans le cadre de l’évaluation normative, la description des produits évalués est redondante. En effet,
ces produits, ainsi que leurs caractéristiques, sont déjà exprimés dans le résultat d’évaluation sommative
qui a permis de noter l’orthographe des dictées, ce qui explique le caractère optionnel des produits dans
le formalisme de résultats. Par contre, il est important de spécifier les acteurs évalués. Le résultat de
l’évaluation normative peut être le rang d’un élève mais aussi la moyenne de la classe. Dans ces deux cas,
les caractéristiques évaluées seront les mêmes, c’est-à-dire les notes obtenues lors de l’évaluation de la
dictée. Les résultats de l’évaluation normative, eux, seront différents (rang ou moyenne) et associés à des
acteurs autres (l’élève ou la classe). Remarquons aussi l’absence de critères d’évaluation qui ne s’avèrent
pas nécessaires dans le calcul d’un rang ou d’une moyenne.
98 Chapitre 7. Expression des résultats

Le formalisme de résultats supporte donc les différents types d’évaluation et permet d’exprimer les points
importants qu’ils soulignent, que ce soit une valeur (évaluation sommative), des compétences (évalua-
tion diagnostique), des avis (évaluation pronostique), des corrections (évaluation formative et évaluation
formatrice). Mais qu’en est-il des objets évalués ?

7.8.3 Les objets évalués


Le formalisme permet d’expliciter l’évaluation de compétences. Un résultat témoigne d’un niveau de
compétence. Cette compétence peut elle-même être située dans une échelle de compétences comme le
propose Karampiperis [KSF06] avec ses extensions de IMS-RDCEO. IMS-RDCEO permet de spécifier
des compétences. Le mot compétence doit être considéré au un sens large puisqu’il englobe des savoir-
faire (capacités), des savoir-être (comportement), des savoir-agir (démarche de production) ainsi que des
connaissances. Ce formalisme permet d’exprimer de nombreux types d’objets évalués sans restrictions.
C’est le point fort d’IMS-RDCEO.

7.8.4 Les acteurs de l’évaluation


On dénombre trois catégories d’acteurs dans le formalisme :
– les acteurs évalués ;
– les acteurs producteurs de résultats à évaluer. Ces acteurs peuvent aussi être des acteurs évalués ;
– les acteurs qui évaluent. Ces acteurs peuvent, là encore, être des acteurs évalués.
Ce découpage des acteurs de l’évaluation en trois catégories non exclusives permet d’envisager différents
dispositifs d’évaluation telles que l’évaluation par pairs, l’évaluation par un enseignant, par un jury, etc.
Le formalisme ne devrait donc pas poser de difficultés à ce niveau.

7.8.5 Les types d’activités évaluées


Différents types d’activités peuvent être évaluées en EIAH, que ce soient des activités de simulation,
de questionnaires, de production de documents, de mémorisation, de communication, etc. Durant ces ac-
tivités, les apprenants réalisent des productions différentes aux caractéristiques particulières. Lors d’une
simulation, on peut imaginer que le produit sera l’enregistrement de la simulation sous forme de fichier
texte, sonore ou visuel. Les caractéristiques évaluables pourront être les différentes actions de l’apprenant,
les composants manipulés et toutes les caractéristiques qui découlent de ces choix.

Le formalisme de résultats n’est pas limitatif dans l’expression des produits de ces activités ni même
dans l’expression des caractéristiques des produits. C’est un formalisme de haut niveau qui permet assez
facilement d’exprimer un grand nombre de produits d’une activité.

7.8.6 La passation de l’évaluation


La passation d’une évaluation, que ce soit en présentiel ou à distance, peut être envisagée comme
une caractéristique externe des produits évalués. Cette passation peut éventuellement avoir une incidence
sur l’évaluation. Il est possible de tenir compte de cette caractéristique dans l’évaluation des produits
en définissant des critères qui lui sont associés. Le modèle de résultats permet de prendre en compte la
passation de l’évaluation.

7.9 Synthèse
Le modèle de résultats proposé aborde l’évaluation d’un point de vue conceptuel, ce qui se traduit
par un formalisme de résultats souple permettant d’exprimer un grand nombre de produits d’évaluation,
d’évaluations et de résultats différents. Pour certains, ce modèle peut paraître trop souple et insuffi-
samment restrictif. Ce qui implique qu’il ne soit pas assez explicite en particulier en ce qui concerne
la description des produits. Un premier modèle détaillant les produits de manière plus explicite a été
7.9. Synthèse 99

conçu [DM06c] [DM06b] avant celui-ci. Mais nous nous sommes rendu compte, à l’inverse, qu’il était trop
restrictif et ne permettait pas une vision limpide du processus d’évaluation. La typologie des produits et
des résultats rencontrés en EIAH, à la base du modèle précédent, ne nous permettait pas de représenter
tous les résultats que nous souhaitions. Lors de la conception de ce second modèle, notre volonté a certes
été d’exprimer les résultats d’évaluation produits par les ENT, mais aussi de fournir un formalisme le
plus complet possible et donc aussi peu restrictif que possible.

En outre, le modèle et le formalisme que nous proposons explicitent le processus d’évaluation à l’origine
d’un résultat. Les études réalisées sur TDmaths [DR02] ont permis de faire ressortir que cette dimension
était essentielle pour permettre à l’enseignant de comprendre l’évaluation lorsqu’elle n’était pas menée
par lui mais par l’EIAH. Si le processus d’évaluation n’est pas explicite, l’enseignant a beaucoup de mal
à prendre en compte un résultat d’évaluation dont il n’est pas l’auteur.

Enfin, notre approche est radicalement différente des modèles et formalismes de traces (cf. 4.3.5 et 5.6).
Nous ne reconstituons pas les produits des apprenants à partir des traces de l’activité. Nous ne faisons que
représenter les produits et des résultats d’évaluation que les EIAH sont susceptibles de se communiquer
dans le cadre d’un ENT. Cette approche n’est pas en concurrence avec les approches liées à l’observation
des traces. Sa visée n’est pas d’expliquer ce que l’apprenant a fait durant l’activité, mais d’exprimer ses
résultats en vue de les partager entre les services de l’ENT.
100 Chapitre 7. Expression des résultats
Chapitre 8

La scénarisation de l’évaluation

8.1 Introduction
Le partage des résultats entre les services d’un ENT est le premier des verrous à l’expression de
l’évaluation dans les langages de modélisation pédagogiques. Mais, une fois ce verrou levé grâce à notre
formalisme de résultats, se pose la question de la description de l’évaluation par un langage de modé-
lisation pédagogique. Nous faisons l’hypothèse ici que l’évaluation, telle qu’elle existe dans les EIAH,
peut être exprimée par un langage de modélisation pédagogique. Pour étayer cette hypothèse, nous allons
scénariser dans le langage LDL certaines situations d’évaluation rencontrées en EIAH. Nous verrons que
l’évaluation peut être pensée comme une phase d’une activité d’apprentissage, mais aussi comme une ac-
tivité à part entière. Nous verrons également que l’expression de l’évaluation en LDL nécessite d’étendre
ce langage. Nous identifierons les besoins, dans un premier temps, pour chaque situation d’évaluation
scénarisée et proposerons, dans la seconde partie de ce chapitre, des extensions au langage, ainsi que des
enrichissements de l’infrastructure de scénarisation.

Pour scénariser ces situations d’évaluation, nous avons procédé méthodiquement en nous appuyant sur
les concepts, les notions, le vocabulaire de LDL, ainsi que sur un langage de modélisation graphique.
Nous introduisons tout d’abord cette méthodologie.

8.2 Construction d’un scénario à l’aide de LDL


8.2.1 Rappel des concepts de LDL
Nous rappelons ici rapidement les concepts clés de la scénarisation dans le contexte de LDL (cf 5.3.2).
D’une manière générale, et comme nous l’avons vu en (cf 5.2.1), un scénario pédagogique spécifie le
déroulement d’une activité pédagogique. Bien naturellement LDL, en tant que langage de scénarisation
est en accord avec cette définition. Un scénario est une spécification qui donne lieu à une activité une fois
que le scénario a été opérationnalisé dans une infrastructure de scénarisation. Le tableau 8.1 offre une
vision synthétique de ces concepts.
Une activité est réalisée par des participants jouant un rôle particulier dans différents lieux appelés
enceintes. Une enceinte permet de spécifier en un seul concept les services ainsi que les diverses ressources
utilisées durant l’activité. L’"unité d’activité" de plus bas niveau dans LDL est l’interaction. Une interac-
tion se déroule dans une enceinte. Elle est exécutée par un ou plusieurs participants. Les interactions sont
organisées en structures. Une structure définit l’ordonnancement des interactions et autres structures qui
la composent. Ces interactions peuvent se dérouler de manière séquentielle, en parallèle, ou suivant les
choix des participants.

101
102 Chapitre 8. La scénarisation de l’évaluation

Concepts Définition
Scénario Spécification du déroulement d’une activité.
Infrastructure de Association d’un outil permettant de lire et de jouer un scénario et d’un envi-
scénarisation ronnement de type ENT disposant d’utilisateurs, de ressources et de services
réels.
Opérationnalisation Contextualisation du scénario. On associe aux rôles du scénario les futurs par-
ticipants de l’activité et aux outils et ressources décrites dans le scénario les
véritables outils et services de l’infrastructure.
Activité Implémentation de la spécification qu’est le scénario. C’est ce qui se déroule
dans l’infrastructure de scénarisation suivant les spécifications d’un scénario.

Tab. 8.1 – Concepts clés de la scénarisation

Dans l’activité du cas d’étude, "le jeu des planètes" (cf. 5.7), il est possible d’exprimer par une première
structure parallèle les interactions telles que la lecture du document produit par l’expert, l’obtention des
indices de l’équipe adverse et la discussion des membres de son équipe. Cette première structure peut
s’inscrire dans une seconde de type séquentielle. Les apprenants doivent trouver l’ordre des planètes
ensemble (première structure), puis chacun d’entre eux doit proposer une solution (nouvelle interaction).

Concepts Définition
Scénario Élément de plus haut niveau qui contient tous les éléments qui permettent de
spécifier l’activité pédagogique.
Structure Structure les interactions du scénario. Les interactions peuvent avoir lieu en
parallèle, en séquence ou au choix de l’utilisateur.
Interaction Action d’un ou plusieurs participants dans une enceinte.
Enceinte Ressource (document, page web, etc) ou service (forum, chat, etc.)
Rôle Rôle du ou des participants à l’activité.
Position Point de vue d’un (ou plusieurs) participants sur une enceinte ou sur d’autres
participants.
Règle Applique des conditions sur des positions. Les règles permettent de réguler le
déroulement de l’activité en évaluant des positions.

Tab. 8.2 – Concepts clés de la scénarisation dans LDL

Dans le tableau ci-dessus, nous retrouvons une synthèse des concepts clés de la scénarisation dans le
langage LDL. Il est important de bien comprendre ces concepts pour construire un scénario, mais il est
tout aussi essentiel de faire preuve de méthode.

8.2.2 Méthodologie
Toute comme n’importe quelle production, la production d’un scénario pédagogique suit un cycle (cf.
5.2.2). Ce cycle débute par la création du scénario. La démarche que nous avons entreprise pour écrire
les scénarios présentés dans ce chapitre a été la suivante :
1. Tout d’abord, l’activité a fait l’objet d’une description textuelle,
2. Puis, dans le cas d’activités complexes, d’une représentation graphique,
3. Ensuite, les objets nécessaires à l’écriture du scénario ont été recensés,
4. Et, enfin, le scénario a été écrit dans LDL.
La description textuelle expose les grandes lignes de l’activité pédagogique envisagée. On peut la com-
parer à une spécification des besoins qui correspond en génie logiciel, à la première phase de l’élaboration
d’un programme, qui est ici le scénario. Cette description textuelle n’est pas assez formelle ni assez pré-
cise pour être traitée en temps que telle. Par exemple, elle ne tient pas compte des spécificités techniques
8.2. Construction d’un scénario à l’aide de LDL 103

de la scénarisation des activités pédagogiques en informatique et encore moins du langage de scénarisa-


tion cible. C’est pourquoi elle doit être affinée par une modélisation utilisant une sémantique non ambiguë.

La modélisation graphique est à mi-chemin entre la description textuelle et l’expression du scénario


dans la langage de scénarisation. C’est une étape qui permet de lever certaines ambiguïtés relatives au
déroulement de l’activité. Nous avons utilisé la modélisation graphique uniquement dans le cas d’activités
complexes.

Après la modélisation graphique, il est nécessaire de référencer et de nommer les éléments, les objets
du langage qui vont être nécessaires à l’écriture du scénario, afin d’éviter les éventuelles redondances
d’éléments, mais aussi pour limiter autant que possible les erreurs d’écriture qui peuvent être très longues
à débugger à la main dans un fichier XML. Une fois les éléments clairement identifiés, il ne reste plus
qu’à écrire le scénario.

Le scénario peut être écrit directement en XML dans un éditeur adéquat, ce qui permet d’avoir un
fichier final bien formé. Mais le scénario peut également être écrit à partir d’un éditeur graphique qui ne
dispense pas de maîtriser le langage de scénarisation (cf. 5.4). Le langage LDL n’a pas d’éditeur spécifique.
Néanmoins, il est possible d’écrire un scénario dans l’outil ModX et, par une mécanique XSL, d’obtenir
un fichier XML respectant le langage LDL [DM06a].

8.2.3 Représentation
Pour modéliser les situations qui font appel à plusieurs activités, nous avons utilisé un langage de
modélisation graphique. Ce langage a été développé par l’équipe scénario du laboratoire SysCom de
l’Université de Savoie. L’objectif de ce langage graphique est de spécifier de manière non ambiguë une
activité pédagogique en vue de la scénariser.

Fig. 8.1 – Représentation et ordonnancement des activités

Dans ce langage, toute activité (A1) est décrite par un scénario. Une situation d’apprentissage peut
donner lieu à plusieurs activités et, par conséquent, à plusieurs scénarios. Les activités peuvent se dérouler
de manière séquentielle (S1 et S2) ou en parallèle (P1 et P2). Dans le cas où les activités sont séquentielles,
la flèche indiquant l’ordre de leur succession signifie que la première activité doit être terminée pour que
la seconde puisse débuter.
104 Chapitre 8. La scénarisation de l’évaluation

Fig. 8.2 – Ordonnancement des activités

Les activités parallèles peuvent démarrer de manière asynchrone ou synchrone. Il est aussi possible de
synchroniser le démarrage d’une activité séquentielle à la fin de plusieurs activités parallèles (cf. figure
8.2, schéma de droite).

Fig. 8.3 – Règles de démarrage et d’arrêt d’une activité

Chaque activité démarre et s’arrête suivant des règles qui lui sont propres. Dans le langage graphique,
il est possible d’exprimer une pré-condition, c’est-à-dire la condition de démarrage de l’activité, et une
post-condition qui est la condition de fin. Par exemple, une activité de groupe peut avoir comme pré-
condition un nombre de participants minimal et comme post-condition que tous les participants aient
trouvé la solution à la question qui leur était posée. Si deux activités se déroulent séquentiellement, la
seconde ne débute que si la première est terminée et que la pré-condition de la seconde est vraie.

Fig. 8.4 – Représentation et rôle des participants d’une activité


8.2. Construction d’un scénario à l’aide de LDL 105

Une activité est réalisée par des participants dont le nombre peut être connu ou pas. La distinction
du rôle des participants est exprimée par des figurines de couleurs différentes.

Fig. 8.5 – Représentation des activités individuelles et collectives

Durant une même activité, les participants peuvent travailler de manière individuelle et ce qu’ils
soient seuls dans l’activité ou en groupe. Par exemple durant un examen universitaire, les participants
sont regroupés dans une salle d’examen mais travaillent individuellement. Ils peuvent aussi travailler
collectivement. C’est le cas de la première partie du jeu sur les planètes (cf. 5.7). Dans le langage graphique,
l’aspect collectif de l’activité s’exprime par un trait qui "solidarise" les participants.

Fig. 8.6 – Navigation des participants dans les activités

Dans le cas d’activités séquentielles, les participants passent d’une activité à une autre. Lorsque la
flèche va d’une activité à l’autre, cela signifie que l’activité doit être terminée pour pouvoir passer à la
suivante et ce pour tous les participants. Lorsque que la flèche est de "participant à participant", comme
dans la figure ci-dessus, cela signifie que chaque participant peut passer à l’activité suivante (S1) même
si les autres participants n’ont pas terminé l’activité (S2).

Lorsque les activités se déroulent parallèlement, les participants peuvent passer d’une activité à l’autre.
Par exemple, l’élève qui fait ses devoirs peut alternativement passer d’une matière à l’autre. Le passage
d’une activité (P1) à une autre (P2) s’exprime par une double flèche. Il peut conduire à un changement de
rôle du participant. Par exemple, dans une situation d’auto-évaluation, un apprenant devient correcteur
lorsqu’il passe de l’apprentissage à l’évaluation. Ce changement de rôle s’exprime par une petite "baguette
magique" représentée à gauche de la figurine. Dans le schéma ci dessus (figure 8.6) le personnage "vert"
de P1 obtient le rôle "rouge" de P2 lorsqu’il va dans P2. Il reprend le rôle "vert", lorsqu’il retourne dans
P1.
106 Chapitre 8. La scénarisation de l’évaluation

Fig. 8.7 – Position et partage d’objets entre activités

Dans certains cas que nous développerons et expliquerons ultérieurement, des activités peuvent devoir
partager des objets. Ces objets peuvent être des positions, c’est-à-dire les points de vue des participants,
mais aussi des ressources appelées enceintes dans le langage LDL.
8.3. Scénarisation d’activités pédagogiques comportant une phase d’évaluation typique 107

8.3 Scénarisation d’activités pédagogiques comportant une phase


d’évaluation typique
L’objectif est ici d’expliquer en utilisant la méthodologie précédente (cf. 8.2.2) la manière dont il est
possible d’exprimer l’évaluation des apprenants dans le langage LDL. Les évaluations choisies appar-
tiennent aux cinq catégories d’évaluation (cf. 2.4). Pour chaque type d’évaluation, nous allons proposer
une activité d’apprentissage dans laquelle cette évaluation est utilisée. L’objectif est de montrer que le
langage LDL permet, et ce malgré certaines limites, de scénariser ces activités. Chaque difficulté rencon-
trée va être répertoriée et fera l’objet d’une proposition d’extension de LDL et/ou de LDI à la fin de ce
chapitre.

8.3.1 Cas d’une évaluation pronostique


Rappel
L’évaluation pronostique (cf. 2.4.1) se déroule avant un apprentissage pour vérifier, certifier la capacité
du candidat à suivre un cursus.

Exemple
Considérons l’exemple des CAT (cf. 3.2.1). Il s’agit d’une évaluation pronostique, dans laquelle un
candidat répond à des questions dans un temps limité. L’évaluateur, ici le système, compare les réponses
du candidat aux réponses exactes et attribue un score. Les caractéristiques prises en compte sont les
réponses effectives aux questions et les critères utilisés pour évaluer sont les réponses correctes attendues.

Scénarisation d’une activité comportant une évaluation pronostique


Éléments de LDL Composants du scénario
Rôles Candidat et examinateur (système).
Enceintes Questions
Interactions Répondre à la question Q1,...,Qn,
évaluer la réponse R1,...,Rn,
calculer un score S1,...,Sn,
annoncer le résultat.
Structures Structure principale (séquentielle)
phase (structure séquentielle) : passation
répondre à Q1,
répondre à Q2,
....
répondre à Qn.
phase (structure séquentielle ) : évaluation
évaluer la réponse R1,
calculer le score,
évaluer la réponse R2,
calculer le score,
.....
calculer le score total,
annoncer les résultats.
Positions Réponses, score.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.3 – Éléments LDL qui permettent de spécifier une activité comportant une évaluation pronostique
108 Chapitre 8. La scénarisation de l’évaluation

Discussion

LDL prévoit, comme IMS-LD (propriétés), un moyen (l’usage des positions) qui permet de spécifier
les réponses du candidat et son score. Dans cet exemple, on voit bien que la spécification indique de quelle
enceinte dépendent ces réponses. En revanche, on ne connaît pas la caractéristique de cette enceinte qui
est réellement intéressante, rien dans la spécification ne l’indique. Dans LDL, rien ne permet de spécifier
les caractéristiques des enceintes qui serviront d’entrée à l’évaluation. L’exemple précédent montre une
lacune évidente de LDL, gênante en ce qu’elle ne permet pas l’identification des caractéristiques, pourtant
à la base du processus d’évaluation.

Ce n’est pas la seule, il en existe d’autres. Il serait évidemment souhaitable de pouvoir aussi spéci-
fier la méthode par laquelle les caractéristiques sont évaluées. Dans l’exemple précédent, la manière dont
est calculé le score n’est pas spécifié. Or, il peut être calculé de différentes manières, dont les incidences
peuvent être importantes sur l’évaluation dans son ensemble.

8.3.2 Cas d’une évaluation diagnostique


Rappel

L’évaluation diagnostique (cf. 2.4.4) vise à diagnostiquer les compétences de l’apprenant. Elle est
souvent utilisée dans des activités formatives. Le diagnostic permet à l’enseignant d’adapter la formation.
Par exemple, une évaluation diagnostique peut permettre, en début de formation, de créer des groupes
de niveau et d’orienter chaque apprenant vers une formation plus adaptée.

Exemple

L’exemple que nous proposons ici s’inspire du logiciel TDmaths (cf. 3.2.3). Un groupe d’apprenants
réalise individuellement un test d’algèbre. Le test vise à évaluer le niveau de compétence de chaque ap-
prenant. Le test porte sur la maîtrise de la simplification de fractions qui est au programme officiel de la
classe de cinquième en mathématiques.

Selon les résultats obtenus à ce test, trois groupes de niveau seront formés. A l’issue du test, si un
apprenant obtient moins de 30%, il est alors ajouté à un groupe auquel sera proposé une activité sur
l’écriture fractionnaire (programme de sixième). S’il obtient entre 30 % et 80 %, il fera partie d’un groupe
qui travaillera alors sur la simplification de fractions. S’il obtient plus de 80 %, il passera à une activité
de quatrième sur la résolution d’une équation du premier degré. Chaque groupe suivra ainsi une activité
adaptée à son niveau de compétence. Nous ne scénarisons pas les activités des groupes ainsi constitués.

Fig. 8.8 – Illustration de la formation des groupes

Dans cet exemple, le questionnaire est corrigé automatiquement par un moteur de questionnaire IMS-
QTI.
8.3. Scénarisation d’activités pédagogiques comportant une phase d’évaluation typique 109

Scénarisation d’une activité comportant une évaluation diagnostique


Éléments de LDL Composants du scénario
Rôles Candidat et examinateur.
Enceintes Questionnaire,
enceinte de visualisation du score,
enceinte pour attribuer le groupe.
Interactions Répondre au questionnaire,
consulter le score de l’apprenant,
attribuer un groupe.
Structures Structure principale (séquentielle)
répondre au questionnaire,
consulter le score de l’apprenant,
attribuer un groupe.
Positions Réponses, score, groupe final.
Règles Règles de démarrage et d’arrêt de la structure et des interactions.

Tab. 8.4 – Éléments LDL qui permettent de spécifier une activité comportant une évaluation diagnostique

Discussion
Tout comme dans l’exemple précédent, on ne connaît pas la caractéristique de l’enceinte questionnaire
qui est réellement intéressante et rien dans la spécification ne l’indique. La description d’une position dans
LDL n’est pas assez riche pour spécifier la caractéristique d’un produit.

Au cours de cette activité, l’examinateur doit consulter le score du candidat au questionnaire afin de
lui attribuer un groupe. Comment spécifier dans LDL que, dans l’enceinte de visualisation du score, c’est
le score de l’apprenant obtenu au questionnaire qui doit être affiché ? En d’autres termes, cela revient à
exprimer l’affichage d’une position dans une enceinte.

8.3.3 Cas d’une évaluation formative


Rappel
L’évaluation formative (cf. 2.4.2) est une évaluation qui contribue à la formation. C’est une évaluation
qui régule l’activité de l’apprenant. Dans ce cas, c’est l’enseignant qui a la charge de cette régulation.

Exemple
L’exemple choisi est une "chasse au trésor" (plus connue sur Internet sous le nom de "Web Hunt")
qui propose à un groupe d’apprenants de rechercher le nom d’un personnage célèbre en corrélant des
informations contenues dans une dizaine de pages Web. Les apprenants mènent cette recherche de ma-
nière collaborative. Ils sont distants les uns des autres et disposent d’un forum pour se coordonner et
communiquer. L’enseignant a accès au forum et peut fournir des indices ou aiguiller la réflexion si les
apprenants partent sur de fausses pistes. L’enseignant régule l’activité.
110 Chapitre 8. La scénarisation de l’évaluation

Scénarisation d’une activité comportant une évaluation formative


Éléments de LDL Composants du scénario
Rôles Chasseur et régulateur.
Enceintes Pages Web,
forum.
Interactions Consulter la page P1,
....
consulter la page Pn,
utiliser le forum.
Structures Structure principale (parallèle)
consulter la page P1,
....
consulter la page Pn,
utiliser le forum.
Positions Aucunes, mises à part les positions "fonctionnelles" de l’activité.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.5 – Éléments LDL qui permettent de spécifier une activité comportant une évaluation formative

Discussion
Cette situation ne pose pas de problèmes particuliers dans sa scénarisation ni dans sa mise en oeuvre.
Les participants ne prennent pas de positions dans l’activité si ce n’est signaler la fin des interactions.
Cependant, le même problème que dans les cas d’évaluations précédents se serait posé si les chasseurs
avaient pour obligation de donner le nom du personnage. Dans ce cas il aurait fallu spécifier une enceinte
de saisie permettant d’inscrire le nom du personnage célèbre. Mais, là encore, nous aurions rencontré une
difficulté dans la définition définition d’une position pointant sur la caractéristique "nom du personnage
célèbre" rentrée par l’élève dans l’enceinte de saisie.

8.3.4 Cas d’une évaluation formatrice


Rappel
L’évaluation formatrice (cf. 2.4.3), comme l’évaluation formative, est une évaluation qui contribue à
la formation. Cependant, contrairement à l’évaluation formative, la régulation de l’apprentissage dans
l’évaluation formatrice est réalisée par l’apprenant.

Exemple
L’exemple choisi s’inspire des activités d’auto-évaluation supportées par le logiciel Geneval (cf. 3.2.4).
Cette activité est individuelle. Chaque apprenant doit répondre à une série de questions fermées. Les
corrections sont automatiques et visibles par l’apprenant. Une fois les réponses complétées et corrigées,
l’apprenant doit s’auto-évaluer en complétant un nouveau questionnaire dans lequel il lui est demandé
de noter de 1 à 5 sa performance pour chacune des compétences en jeu, 5 signifiant une maîtrise parfaite
de la compétence.
8.3. Scénarisation d’activités pédagogiques comportant une phase d’évaluation typique 111

Scénarisation d’une activité comportant une évaluation formatrice


Éléments de LDL Composants du scénario
Rôles Apprenant.
Enceintes Questionnaires.
Interactions Répondre au questionnaire Q1,
répondre au questionnaire Q2.
Structures Structure principale (séquentielle)
répondre au questionnaire Q1,
répondre au questionnaire Q2.
Positions Aucunes, mises à part les positions "fonctionnelles" de l’activité.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.6 – Éléments LDL qui permettent de spécifier une activité comportant une évaluation formatrice

Discussion
Nous n’avons pas chercher ici à modéliser une activité complexe : en effet, LDL permet de scénariser
cette activité d’auto-évaluation simple, mais qui se rencontre toutefois en EIAH et en particulier dans le
logiciel GenEval. Cette activité est simple dans le sens où elle ne possède qu’un seul rôle, deux interactions,
une unique structure et surtout aucunes positions délicates à mettre en oeuvre.

8.3.5 Cas d’une évaluation sommative


Rappel
L’évaluation sommative (cf. 2.4.5) permet de contrôler l’acquisition de connaissances. Elle est cour-
ramment utilisée pour sélectionner des candidats, élaborer des classements ou délivrer un diplôme.

Exemple
L’exemple choisi ici est plus complexe que le précédent. Il s’inspire de l’épreuve C2I53 (Certificat
Informatique et Internet) niveau 1, nécessaire à l’entrée en IUFM. Cette épreuve est constituée de deux
parties :
– une partie théorique, dans laquelle les candidats doivent répondre à un questionnaire. Cette épreuve
compte pour le tiers des points ;
– une partie pratique dans laquelle le candidat doit réaliser des tâches sur machine, telles que la
rédaction d’un mémoire ou la constitution d’un dossier. Cette partie compte pour les deux tiers des
points.
Dans notre exemple, chaque candidat devra tout d’abord répondre au questionnaire. Il devra ensuite écrire
son CV tapé dans un outil de traitement de texte. Une fois le CV rédigé, le candidat devra l’envoyer par
email à l’examinateur. Le correcteur, suivant le score délivré par le questionnaire et son évaluation du
CV, délivrera ou non le diplôme. Le candidat sera averti par email du résultat de l’épreuve.

Pour simplifier cette activité qui est complexe (grand nombre d’éléments) à exprimer dans LDL, nous
supposons que l’enseignant évalue sans support le CV du candidat.

53 C2I : http ://www.c2i.education.fr/


112 Chapitre 8. La scénarisation de l’évaluation

Scénarisation d’une activité comportant une évaluation sommative


Éléments de LDL Composants du scénario
Rôles Candidat et examinateur.
Enceintes Questionnaire,
traitement de texte,
boîte email,
interface de visualisation du score.
Interactions Répondre questionnaire,
réaliser CV,
envoyer CV,
recevoir et lire CV,
voir le score,
envoyer le résultat final.
Structures Structure principale (séquentielle)
phase (structure séquentielle) : passation
répondre questionnaire,
réaliser CV,
envoyer CV,
phase (structure séquentielle) : évaluation
recevoir et lire CV,
voir le score,
envoyer le résultat final.
Positions Score.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.7 – Éléments LDL qui permettent de spécifier une activité comportant une évaluation sommative

Discussion
La position "score" obtenue par un apprenant dans le questionnaire n’est pas assez explicite pour que
l’infrastructure de scénarisation puisse l’associer à la caractéristique score du produit questionnaire. En
dehors de cette difficulté, LDL permet de scénariser cette activité complexe qui contient une évaluation
sommative et fait appel à un grand nombre d’interactions.
8.4. Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 113

8.3.6 Synthèse
Grâce aux différentes situations étudiées ci-dessus, nous avons montré qu’il était envisageable de spé-
cifier l’évaluation d’une activité d’apprentissage dans le langage LDL. Nous avons aussi isolé les problèmes
qui doivent être résolus pour permettre pleinement la scénarisation de ces activités. Ces problèmes sont
les suivants :

Besoin Activités exemples concernées


Association d’une position à une caractéris- Cas des activités comportant une phase pronostique
tique ou à un résultat produit par une enceinte (cf. 8.3.1), diagnostique (cf. 8.3.2), et sommative (cf.
8.3.5)
Affichage d’une position par une enceinte Cas des activités comportant une phase pronostique
(cf. 8.3.1), diagnostique (cf. 8.3.2)ou sommative (cf.
8.3.5)
Définition de la méthode d’évaluation Cas de l’activité comportant une phase pronostique
(cf. 8.3.1)

Tab. 8.8 – Synthèse des besoins issus de la scénarisation des activités exemples comportant une phase
d’évaluation.

Lors de la scénarisation de ces activités, nous avons constaté d’autres limites que celles induites par
le langage de scénarisation. Ces limites sont issues de la conception même des scénarios. En effet, la
spécification de l’évaluation dans le même scénario que celui d’apprentissage contient un certain nombre
de limites, telles que :
– la très faible réutilisabilité de l’activité d’apprentissage et de l’activité d’évaluation séparément.
Ce qui peut avoir un sens puisqu’à une activité d’apprentissage peuvent être associées plusieurs
évaluations et inversement [MSB+ 01] ;
– l’augmentation de la complexité des scénarios, tel que dans le scénario exemple précédent (cf. 8.3.5)
qui contient énormément d’éléments du langage LDL. Ce type de scénario est très complexe à écrire,
que ce soit par le biais d’un éditeur graphique ou directement en XML.
Scénariser l’évaluation de manière indépendante pourrait offrir une solution permettant de résoudre ces
dernières limites.

8.4 Scénarisation des activités d’évaluations typiques associées à


une activité pédagogique
Afin de montrer l’intérêt de la séparation entre scénario pédagogique et scénario d’évaluation, nous
étudirons dans ce chapitre une seule et unique activité pédagogique. Nous proposerons ensuite différentes
activités d’évaluation que nous scénariserons. L’objectif est ici double : tout d’abord vérifier la faisabilité
et montrer l’intérêt de cette démarche, mais aussi isoler les problèmes qu’elle ajoute dans l’expression de
l’évaluation par les langages de scénarisation.

8.4.1 Présentation de l’activité pédagogique


L’activité pédagogique choisie est issue du modèle puzzle (Jigsaw) proposé par l’éditeur de scéna-
rio Collage [HLVFJA+ 06] (cf. 5.4.3). Cette activité propose aux participants de résoudre un problème
complexe faisant appel à des compétences clairement définies. Suivant le niveau d’expertise de chaque
candidat, l’activité qui lui sera proposée sera différente. Des groupes d’experts sont constitués. Ces ex-
perts doivent d’abord, individuellement puis en groupe d’experts, résoudre la partie du problème qui entre
dans leur sphère de compétence. Puis des groupes mosaïques (Jigsaw group) sont créés pour résoudre le
problème dans son intégralité. Chaque groupe mosaïque possède un expert de chaque sous-problème.
114 Chapitre 8. La scénarisation de l’évaluation

Fig. 8.9 – Différentes phases d’une activité puzzle (Jigsaw) issues de [HLVFJA+ 06]

8.4.2 Scénarisation de l’activité pédagogique


Pour que tous les participants comprennent bien ce qui leur est demandé, nous avons ajouté dans
la phase individuelle, une interaction de lecture des consignes et explications nécessaires à la réalisation
de l’activité. On suppose que le problème posé aux participants est subdivisable en deux sous-problèmes
faisant appels à des compétences spécifiques. En outre, c’est l’enseignant qui affectera à chaque participant
un groupe d’expert ainsi qu’un groupe mosaïque. C’est également lui qui débutera et arrêtera toutes les
interactions. L’activité sera réalisée par quatre participants et un enseignant. Cette activité peut se
traduire dans le langage LDL par les éléments détaillés dans les tableaux suivants :

Scénarisation de l’activité pédagogique puzzle


Éléments de LDL Composants du scénario
Rôles Expert groupe 1,
expert groupe 2,
mosaïque groupe 1,
mosaïque groupe 2,
enseignant.
Enceintes Consignes de l’activité,
problème expert groupe 1,
problème expert groupe 2,
chat expert groupe 1,
chat expert groupe 2,
chat mosaïque groupe 1,
chat mosaïque groupe 2.
Interactions Lecture consigne,
lecture du problème expert groupe 1,
lecture du problème expert groupe 2,
chat expert groupe 1,
chat expert groupe 2,
chat mosaïque groupe 1,
chat mosaïque groupe 2.

Tab. 8.9 – Éléments LDL permettant de spécifier l’activité puzzle


8.4. Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 115

Scénarisation de l’activité pédagogique puzzle (suite)


Éléments de LDL Composants du scénario
Structures Structure principale (séquentielle)
phase (structure parallèle) : individuelle
Lecture consigne,
Lecture du problème expert groupe 1,
Lecture du problème expert groupe 2.
phase (structure séquentielle) : collective
phase (structure parallèle) : expert
chat expert groupe 1,
chat expert groupe 2.
phase (structure parallèle) : mosaïque
chat mosaïque groupe 1,
chat mosaïque groupe 2.
Positions Aucunes, mises à part les positions "fonctionnelles" de l’activité.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.10 – Éléments LDL permettant de spécifier l’activité puzzle (suite)

8.4.3 Présentation des activités d’évaluation connexes


L’activité puzzle proposée est, d’un point de vue social, assez riche. Une phase collective succède à
une phase individuelle. Les apprenants vont apprendre les uns des autres, notamment dans l’interaction
mosaïque où les expertises vont se mêler pour que chacun soit en mesure de résoudre le problème. Du point
de vue de l’évaluation, un grand nombre d’évaluations différentes est envisageable. En nous contentant
des types d’évaluations manipulés dans ce document, nous pouvons proposer les évaluations suivantes :
– diagnostique et pronostique : ces deux évaluations vont être menées en amont de l’activité puzzle.
Une première évaluation diagnostique va avoir comme objectif d’établir un bilan des compétences
des apprenants. Dès lors, à partir de ce bilan, débutera une évaluation pronostique qui déterminera
les rôles les mieux adaptés à chaque participant ;
– formative : les apprenants peuvent durant l’activité puzzle ne pas comprendre l’énoncé du problème,
ou avoir des questions à son sujet. Dans le cadre de ce type d’évaluation, l’enseignant doit être en
mesure de les guider et de les aider.
– formatrice : l’idée d’une co-évaluation nous a semblé pertinente compte tenu du fait qu’il s’agit
d’une activité de groupe. La co-évaluation envisagée propose aux apprenants d’évaluer de manière
collective la solution de chaque participant au problème.
– sommative : l’évaluation sommative s’appuie sur un questionnaire proposé aux apprenants après
l’activité mosaïque. Les questions portent sur la méthode de résolution du problème. Ce test est
individuel.

8.4.4 Cas de l’évaluation diagnostique et pronostique


L’enseignant doit établir des pronostics quant au rôle du scénario puzzle le mieux adapté à chaque
apprenant. A cette fin, l’enseignant a besoin de s’appuyer sur un diagnostic des compétences de chaque
apprenant. Il y a donc ici deux évaluations successives. Durant l’activité d’évaluation diagnostique, chaque
participant devra remplir un questionnaire spécifique à chacun des domaines d’expertise. Après avoir
rempli les questionnaires, l’apprenant obtiendra deux scores. A partir de ces scores, l’enseignant va réaliser
une évaluation pronostique afin d’attribuer à chaque participant de l’activité puzzle les rôles qu’il jugera
les mieux adaptés.
116 Chapitre 8. La scénarisation de l’évaluation

Modélisation de l’activité d’évaluation diagnostique et pronostique

Fig. 8.10 – Proposition d’une activité d’évaluation diagnostique puis pronostique dans le cadre de l’activité
puzzle.

Scénarisation de l’évaluation diagnostique

Scénarisation de l’activité d’évaluation diagnostique


Éléments de LDL Composants du scénario
Rôles Élève et enseignant.
Enceintes Consignes de l’activité,
Questionnaire 1,
Questionnaire 2.
Interactions Lire les consignes,
répondre questionnaire 1,
répondre questionnaire 2.
Structures Structure principale (séquentielle)
Lire les consignes,
répondre questionnaire 1,
répondre questionnaire 2.
Positions Score questionnaire1, score questionnaire 2.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.11 – Éléments du scénario LDL spécifiant l’activité d’évaluation diagnostique de l’activité puzzle
8.4. Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 117

Scénarisation de l’évaluation pronostique

Scénarisation de l’activité d’évaluation pronostique


Éléments de LDL Composants du scénario
Rôles Enseignant.
Enceintes Visualisation des résultats de l’évaluation diagnostique,
opérationnalisation du scénario puzzle.
Interactions Consulter les résultats,
opérationnaliser le scénario puzzle.
Structures Structure principale (séquentielle)
Visualisation des résultats de l’évaluation diagnostique,
opérationnalisation du scénario puzzle.
Interactions Consulter les résultats,
opérationnaliser scénario puzzle.
Positions Score questionnaire1, score questionnaire 2.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.12 – Éléments du scénario LDL spécifiant l’activité d’évaluation pronostique de l’activité puzzle

Discussion
Dans la partie 8.2.3 concernant le langage de représentation pédagogique, nous avons introduit sans
la justifier l’idée d’un partage d’objets entre activités. Les évaluations diagnostique et pronostique pro-
posées ici illustrent ce concept. En effet, ces deux évaluations doivent communiquer l’une avec l’autre.
L’évaluation pronostique doit obtenir les résultats (positions sur les scores) de l’évaluation diagnostique.
C’est un nouveau problème spécifique à la vision d’une évaluation indépendamment scénarisée.

Bien évidemment, on retrouve les difficultés relatives à l’utilisation des résultats dans un scénario comme
dans les exemples de la partie 8.3. La difficulté est ici d’afficher dans l’enceinte de visualisation les résultats
de l’évaluation diagnostique des élèves, ce qui revient à afficher une position dans une enceinte.

8.4.5 Cas de l’évaluation formative


Durant l’activité puzzle, les apprenants doivent travailler individuellement puis collectivement. Au
cours de ces différentes phases, il peut être nécessaire de réguler l’activité, par exemple aider certains
élèves qui auraient mal compris les consignes, qui s’engageraient sur de fausses pistes de réflexion, ou
encore qui ne voudraient pas participer à l’activité. L’activité formative proposée ici permet à l’enseignant
de superviser les conversations des différents chats, d’intervenir en cas de besoin de manière collective ou
individuelle. Il peut s’adresser au groupe en utilisant le chat prévu à cet effet, ou à chaque participant en
lui proposant de le rejoindre dans un autre chat individuel.
118 Chapitre 8. La scénarisation de l’évaluation

Modélisation d’une activité d’évaluation formative

Fig. 8.11 – Proposition d’une activité d’évaluation formative évaluant l’activité puzzle

Scénarisation de l’activité d’évaluation formative


Éléments de LDL Composants du scénario
Rôles Idem activité puzzle.
Enceintes Interface de visualisation des conversations, chat expert groupe 1,
chat expert groupe 2,
chat mosaïque groupe 1,
chat mosaïque groupe 2.
Interactions Visualiser les conversations, intervenir chat expert groupe 1,
intervenir chat expert groupe 2,
intervenir chat mosaïque groupe 1,
intervenir chat mosaïque groupe 2.
Structures Structure principale (séquentielle)
visualiser les conversations, intervenir chat expert groupe 1,
intervenir chat expert groupe 2,
intervenir chat mosaïque groupe 1,
intervenir chat mosaïque groupe 2.
Positions Contenu chat expert groupe 1,
Contenu chat expert groupe 2,
Contenu chat mosaïque groupe 1,
Contenu chat mosaïque groupe 2.
Règles Les règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.13 – Éléments du scénario LDL spécifiant l’activité d’évaluation formative de l’activité puzzle
8.4. Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 119

Discussion
Pour permettre l’interaction d’observation des conversations de l’activité d’évaluation formative, il
est nécessaire d’obtenir les contributions de chaque participant dans le chat. Dans notre formalisme de
résultats, ce sont des caractéristiques du produit "conversation" entre les participants. Dans LDL, la
définition d’une position n’est pas assez riche pour spécifier la caractéristique d’un produit.

Dans ce cas de figure, les caractéristiques à évaluer sont produites par l’activité puzzle qui doit les commu-
niquer à l’activité d’évaluation. Cette communication n’est pas spécifiable dans LDL et non implémentée
dans LDI.

8.4.6 Cas de l’évaluation formatrice


Compte tenu de sa dimension collective, la co-évaluation est une évaluation formatrice envisageable
pour l’activité puzzle. Faisant suite à l’activité puzzle, une activité a été ajoutée qui propose aux appre-
nants de rédiger individuellement un document expliquant la façon dont ils ont résolu le problème qui
leur a été posé. C’est ce document qui fait l’objet d’une co-évaluation. Durant l’activité de co-évaluation,
chaque apprenant corrige trois rédactions qui ne sont pas les siennes. Il dispose pour les évaluer d’un
questionnaire lui demandant d’apprécier certains critères définis préalablement par l’enseignant.

Modélisation d’une activité d’évaluation formatrice

Fig. 8.12 – Proposition d’une activité d’évaluation formatrice évaluant l’activité puzzle

Scénarisation de l’activité de rédaction


Dans l’activité de rédaction, les élèves sont autonomes, l’enseignant n’intervient pas. Ce sont eux qui
décident de passer d’une interaction à l’autre.
120 Chapitre 8. La scénarisation de l’évaluation

Scénarisation de l’activité de rédaction


Éléments de LDL Composants du scénario
Rôles Élève.
Enceintes Consignes,
traitement de texte.
Interactions Lire les consignes,
rédiger document.
Structures Structure principale (séquentielle)
lire les consignes,
rédiger document.
Positions Aucunes, mises à part les positions "fonctionnelles" de l’activité.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.14 – Éléments du scénario LDL spécifiant l’activité de rédactions suivant l’activité puzzle

Scénarisation de l’activité de co-évaluation

L’enseignant surveille le déroulement de l’activité de co-évaluation et observe les évaluations produites


par les apprenants.

Scénarisation de l’activité de co-évaluation


Éléments de LDL Composants du scénario
Rôles Correcteur,
enseignant.
Enceintes Visualisation des résultats d’évaluation,
questionnaire,
rédaction 1,
rédaction 2,
rédaction 3.
Interactions Consulter rédaction 1,
consulter rédaction 2,
consulter rédaction 3,
répondre au questionnaire,
consulter les résultats de l’évaluation.
Structures Structure principale (parallèle)
consulter rédaction 1,
consulter rédaction 2,
consulter rédaction 3,
répondre au questionnaire,
consulter les résultats de l’évaluation.
Positions Score rédaction 1, score rédaction 2, score rédaction 3.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.15 – Éléments du scénario LDL spécifiant l’activité de co-évaluation qui suit l’activité puzzle

Discussion

Au terme de l’activité de co-évaluation, chaque correcteur rempli un questionnaire élaboré par l’ensei-
gnant. On suppose que les questionnaires sont corrigés automatiquement par un moteur d’exécution. Les
notes produites par ces évaluations doivent pouvoir être consultées par l’enseignant pour vérifier, entre
8.4. Scénarisation des activités d’évaluations typiques associées à une activité pédagogique 121

autre, qu’il n’y pas de trop importantes variations entre les notes obtenues par chaque rédaction. Il est
là encore nécessaire d’afficher ces résultats dans une enceinte de visualisation.

8.4.7 Cas de l’évaluation sommative


L’évaluation sommative réalisée par l’enseignant s’appuie sur un questionnaire auquel les apprenants
répondent après l’activité puzzle. L’enseignant souhaite corriger lui-même les questions afin de détecter
d’éventuelles misconceptions des apprenants. Il ne désire pas que cette évaluation soit réalisée par le
moteur d’exécution de questionnaires. Nous envisageons deux activités scénarisées successives :
– une activité de réponse au questionnaire réalisée par les apprenants ;
– puis, l’évaluation sommative des réponses réalisée par l’enseignant.

Modélisation d’une activité d’évaluation sommative

Fig. 8.13 – Proposition d’une activité d’évaluation sommative évaluant l’activité puzzle
122 Chapitre 8. La scénarisation de l’évaluation

Scénarisation de l’activité de réponse au questionnaire

Scénarisation de l’activité de réponse au questionnaire


Éléments de LDL Composants du scénario
Rôles Élève.
Enceintes Question 1,
....
question n.
Interactions Répondre question 1,
....
répondre question n.
Structures Structure principale (séquentielle)
répondre question 1,
....
répondre question n.
Positions Réponse question 1, ..., réponse question n.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.16 – Éléments du scénario LDL spécifiant l’activité de réponse au questionnaire qui suit l’activité
puzzle

Scénarisation de l’évaluation sommative

Scénarisation de l’activité d’évaluation sommative


Éléments de LDL Composants du scénario
Rôles Enseignant.
Enceintes Visualisation des réponses,
Saisie des scores et remarques de l’enseignant.
Interactions Consulter les réponses remplis,
Saisir les scores et des remarques.
Structures Structure principale (parallèle)
consulter les questionnaires remplis,
saisir les scores et des remarques.
Positions Réponse question 1, ..., réponse question n, score questionnaire 1, ..., score
questionnaire n, remarques questionnaire1, ..., remarques questionnaire n.
Règles Règles de démarrage et d’arrêt des structures et des interactions.

Tab. 8.17 – Les éléments du scénario LDL spécifiant l’activité d’évaluation sommative de l’activité puzzle

Discussion
Pour réaliser son activité d’évaluation sommative, l’enseignant doit pouvoir évaluer les réponses don-
nées par chaque apprenant au questionnaire de l’activité de réponse du questionnaire. Dans cette dernière,
les réponses de l’apprenant sont exprimées par des positions, ce qui pose déjà le problème de l’associa-
tion d’une position avec une caractéristique. Or ces positions doivent aussi être utilisables dans l’activité
d’évaluation sommative. Comment exprimer dans LDL le partage de ces positions par deux activités ?

Mais l’enseignant doit aussi, dans l’activité d’évaluation sommative, pouvoir visualiser les réponses des
apprenants. Ce qui pose une nouvelle fois le problème de l’affichage d’une position dans une enceinte.
8.5. Extension de LDL pour l’évaluation 123

8.4.8 Synthèse
La scénarisation des activité d’évaluations apporte une vision modulaire à la scénarisation. Nous ve-
nons ici de montrer l’intérêt de cette approche. A une même activité il est possible d’associer différentes
activités d’évaluation et ce sans aucune modification de l’activité d’apprentissage. Inversement il est
possible de réutiliser un même scénario d’évaluation pour différentes activités d’apprentissage. Cette mo-
dularité dépasse le cadre de l’évaluation pour enrichir d’une manière globale la scénarisation des activités
pédagogiques.

Cependant la scénarisation de l’évaluation comme activité communicante avec une activité d’appren-
tissage rencontre des problèmes dans sa mise en oeuvre. Les problèmes que nous avions rencontrés dans
la scénarisation des activités comportant une phase d’évaluation (cf. 8.3) se retrouvent dans la scéna-
risation des activités d’évaluation, en particulier ceux relatifs à l’association des positions du scénario
aux caractéristiques des produits et aux résultats d’évaluation. Néanmoins la scénarisation des activités
d’évaluation en crée un nouveau, celui de la communication des positions entre scénarios.

8.5 Extension de LDL pour l’évaluation


8.5.1 Du modèle de résultats à la scénarisation de l’évaluation dans LDL
Le modèle de résultat permet de modéliser l’obtention d’un résultat d’évaluation. En résumé, il décrit
le produit réalisé par les apprenants, les caractéristiques évaluées sur ce produit, la méthode et les critères
d’évaluation et finalement la valeur du résultat d’évaluation. Comme nous avons pu le présentir dans les
exemples précédents de scénarisation de l’évaluation, il existe une correspondance entre le langage LDL
et le modèle de résultat. Même s’il est nécessaire d’adapter LDL pour mener des évaluations, nous avons
vu qu’il était conceptuellement possible de scénariser l’évaluation et donc d’exprimer des résultats d’éva-
luation. L’objectif de cette partie est donc de clarifier la correspondance entre certains objets du modèle
de résultats et les éléments de LDL, nécessaires pour justifier et présenter les extensions de LDL.

Un produit est réalisé par des acteurs (qui peuvent être des acteurs évalués) et les caractéristiques du
produit sont aussi évaluées par des acteurs. Dans LDL, on ne parle pas d’acteurs mais de rôles qui seront
associés lors de l’opérationnalisation du scénario aux participants de l’activité.

Un produit est un objet qui a été réalisé par les apprenants ou dans lequel ils ont introduit de nou-
velles caractéristiques. Un questionnaire n’est pas produit par les apprenants, mais modifié par ajout de
leurs réponses qui constituent des caractéristiques du produit. Un produit se traduit donc dans LDL par
une enceinte.

Les caractéristiques du produit peuvent être perçues comme le point de vue des apprenants sur le produit.
Dans le cas d’une question, la réponse de l’apprenant illustre son point de vue sur la question qui lui est
posée. Dans LDL, une caractéristique est une position.

Un critère d’évaluation peut également être vu comme la position du ou des correcteurs sur le pro-
duit de l’élève. La réponse attendue à une question, c’est-à-dire la réponse correcte, est bien le point de
vue de l’enseignant (des correcteurs) sur la question qui a été posée à l’apprenant. Un critère dans LDL
s’exprime donc par une position.

L’évaluation des caractéristiques d’un produit est une action de l’enseignant. Elle prend en compte les
critères et s’appuie sur une méthode pour délivrer un résultat. C’est une interaction des correcteurs qui
au regard d’un certain nombre de positions et d’une méthode d’évaluation (comparaison, moyenne, etc.)
produit un résultat.

Le résultat peut être vu comme une caractéristique tel que le point de vue du (ou des) correcteur(s)
sur la production des apprenants. Dans LDL, un résultat se traduit par une position.
124 Chapitre 8. La scénarisation de l’évaluation

Modèle de résultat LDL


Acteur Rôle
Produit Enceinte
Caractéristique Position
Critère Position
Evaluation Interaction
Résultat Position

Tab. 8.18 – Correspondance entre éléments du modèle de résultat et LDL

8.5.2 Association d’une position à une caractéristique d’un produit


Pour lier les positions aux caractéristiques des productions de l’apprenant, nous avons introduit la
notion de positions observatrices. Ces positions contiennent la description de la caractéristique d’un
produit ou d’un résultat qui doit être produit durant l’activité scénarisée. Un résultat est produit par
une enceinte, et une caractéristique est une caractéristique d’une enceinte produite par l’apprenant. Ces
positions dans le langage LDL s’expriment de la manière suivante :

<Position id="premiere_reponse" partition="individuelle">


<title>Réponse à la première question</title>
<valeur>
<Observer type="caracteristique">reponse</Observer>
</valeur>
<sur>Question1</sur>
<de>eleve</de>
</Position>

La position ci-dessus va prendre comme valeur la réponse que vont donner les participants à la première
question. La chaîne de caractère "reponse" est le type de la caractéristique désirée sur le produit Question1
exprimée dans le formalisme de résultats. La position qui exprime cette caractéristique est individuelle,
c’est-à-dire que, durant l’activité, il y aura une position associée à chaque participant. Mais cette position
peut aussi être collective. C’est ce qu’exprime la définition de la position ci-dessous :

<Position id="premiere_reponse" partition="commune">


<title>Réponse à la première question</title>
<valeur>
<Observer type="caractéristique">reponse</Observer>
</valeur>
<sur>Question1</sur>
<de>eleve</de>
</Position>

Dans le cas d’une partition commune, la positions prendra comme valeur la réponse du premier
participant.

8.5.3 Association d’une position à un résultat préalablement obtenu


Nous avons vu qu’un résultat d’évaluation pouvait s’exprimer par une position de LDL. Une position
observatrice peut aussi être associée à un résultat. Dans ce cas-là, la position déterminera de quel résultat
il s’agit grâce à l’URI associée au résultat lors de sa création. La valeur de la position sera alors la valeur
du résultat.
8.5. Extension de LDL pour l’évaluation 125

<Position id="premiere_reponse" partition="commune">


<title>Réponse à la première question</title>
<valeur>
<Observer type="résultat">http://ld.pentila.com/Produits/4C/Paul/Dictee1/score
</Observer>
</valeur>
<sur>Question1</sur>
<de>eleve</de>
</Position>

8.5.4 Usage d’une position par une enceinte


Les caractéristiques ainsi que les résultats manipulés au sein des positions doivent pouvoir être utilisés
dans d’autres enceintes. Par exemple, dans les exemples précédents, il était bien souvent nécessaire de
pouvoir afficher les résultats des apprenants dans un outil de visualisation à destination de l’enseignant.
LDL permet de spécifier les actions qui vont se dérouler durant une interaction. Ces actions peuvent être
réalisées par un humain ou par un agent logiciel de l’infrastructure. Pour définir le passage de paramètres
dans une enceinte, nous avons introduit des enceintes de type méthode (method). Ces enceintes ont
comme source une URL qui peut prendre en paramètre des objets de LDL, identifiés par leur identifiant
tels que des rôles et des positions.

<Enceinte id="voir_reponse" kindOfEnceinte="method">


<title>Voir la réponse de l’élève</title>
<description>Affiche la réponse de l’élève</description>
<source>
<URL>http://ld.pentila.com/result_view&{premiere_reponse}</URL>
</source>
</Enceinte>

L’URL sera appelée lorsque cette enceinte ("voir_reponse") sera utilisée dans une interaction. La page
"result_view" va être appelée et la ou les valeurs de la position "premiere_reponse" vont être passées
en paramètre pour permettre à la page de l’afficher. Les enceintes méthode permettent de passer des
positions en paramètres de services et donc de visualiser, stocker, traiter des positions.

8.5.5 Communication des positions entre activités


Les positions qui, comme nous venons de le voir, peuvent exprimer des caractéristiques et des résultats
peuvent être partagées entre plusieurs activités. Pour permettre le partage de positions exprimant des
caractéristiques et des résultats, mais aussi le début ou la fin d’une interaction, nous avons introduit
la notion de partage de positions [MVFD06] [MVF+ 06c]. La portée des positions permet de spécifier la
visibilité des positions entre activités. La position peut ainsi être définie pour être visible seulement dans
une instance de scénario (portée activité), toutes les instances d’un même scénario (portée scenario),
toutes les instances de tous les scénarios (portée infrastructure).

<Position id="PI_consignes_lu" partition="individuelle">


<title>les consignes du scénario évalué sont lues</title>
<valeur>
<UserChoice>
<label>les consignes sont lues</label>
</UserChoice>
</valeur>
<sur>les_consignes</sur>
<de>eleve</de>
<portee>infrastructure</portee>
</Position>
126 Chapitre 8. La scénarisation de l’évaluation

Ci-dessus, nous avons retranscrit l’expression d’une position partagée qui peut être visible par toutes
les activités qui seront jouées en même temps que l’activité qui la décrit. Cette position décrit la fin de
la lecture de chaque apprenant (partition individuelle) des élèves. Pour déclarer une position commune,
c’est-à-dire exprimer le fait que les consignes ont été lues par tous les apprenants, il aurait fallu définir la
partition non plus comme individuelle mais commune. Dans l’exemple, la position est issue du choix de
chaque participant des groupes. Cette position peut alors être utilisée par n’importe quel autre scénario,
sans nécessité de la redéfinir. Il suffit de l’appeler par son identifiant dans des règles ou comme paramètre
d’enceintes.

Le partage synchrone des positions permet aussi, par le biais des règles, d’ordonnancer les activités
les unes par rapport aux autres. Il est ainsi possible de démarrer une activité quand la précédente se
termine et de synchroniser des activités qui se déroulent en parallèle.

8.5.6 Définition des règles de calcul d’une évaluation et production d’un ré-
sultat
Pour définir les règles de calcul, nous utilisons le champ action des interactions. C’est dans ce champ
que sont définis les calculs sur les positions. Ces calculs sont réalisés par des agents de l’infrastructure
que nous détaillons dans le chapitre suivant.

<Interaction id="I_Calcul_Moyenne">
<action>Moy(P_score_eleve)</action>
<destinataires>
<role>enseignant</role>
</destinataires>
<results>
<Position id="P_Calc_Moy" partition="commune">
<title>moyenne des eleves</title>
<sur>Questionnaire</sur>
<de>eleve</de>
</Position>
</results>
....
</Interaction>

L’interaction définie ici va calculer la moyenne des élèves. La position P_score_eleve est individuelle :
elle exprime l’ensemble des scores des apprenants obtenus dans l’enceinte figurant dans la spécification de
la position. Cette position est le résultat de l’interaction d’évaluation qui calcule la moyenne des scores
des élèves.

8.6 Enrichissement de LDI


8.6.1 Association d’une position à une caractéristique d’un produit
Comme nous le verrons dans l’architecture (cf. chapitre 9) proposée, tous les services disponibles
dans l’infrastructure LDI engendrent des produits qui ont des caractéristiques. Ces produits ainsi que les
caractéristiques qui les accompagnent sont stockés dans l’infrastructure de scénarisation. Le format de
stockage reprend le format de résultats exhibé en 7.7. LDI devra tout d’abord référencer les caractéris-
tiques observées sur ces produits par des positions et renseigner ensuite ces positions si la caractéristique
qu’elles observent est modifiée dans la base de données.
8.6. Enrichissement de LDI 127

Pour permettre la récupération des caractéristiques exprimées par une position, nous avons étendu
dans LDI le modèle de conception observateur/observable54 aux positions. Ce modèle de conception est
utilisé en programmation pour envoyer un signal à des modules qui jouent le rôle d’observateurs. En cas
de notification, les observateurs effectuent alors l’action adéquate en fonction des informations qui leur
parviennent depuis les modules qu’ils observent (les "observables"). Les observateurs peuvent eux mêmes
être des observables. Dans le modèle de conception observateur/observable, chaque observable connaît la
liste des observateurs qu’il doit notifier en cas de modification de sa valeur.
LDI est dans ce contexte un observateur des observables de l’infrastructure. L’infrastructure dispose
d’un certain nombre d’éléments observables nécessaires au déroulement d’une activité issus des objets
suivants :
– interaction ;
– position ;
– scenario ;
– rule.

Fig. 8.14 – Observables disponibles dans l’infrastructure LDI

Pour permettre la récupération des caractéristiques de manière synchrone, nous avons étendu le modèle
de conception aux positions. Ce qui s’exprime, dans LDL, par les positions observatrices que nous avons
spécifiées précédemment. Ainsi, lorsque la caractéristique observée par des positions est modifiée, LDI
met à jour toutes les positions observatrices.

8.6.2 Communication des positions entre activités


Pour LDI, une position partagée est déclarée comme une variable dans un programme qui est visible
de manière locale ou globale. Une position peut être appelée dans l’activité où elle est visible, que ce
soit uniquement dans l’activité que va produire le scénario, entre les activités issues d’un même scénario,
ou toutes les activités de l’infrastructure. Les appels de la position par son identifiant dans les différents
scénarios pointent tous sur le même objet, sur la même position. Ainsi, si la valeur de la position est
modifiée, la nouvelle valeur est utilisable partout où la position est appelée.
54 Observer observable design pattern, http ://www.exciton.cs.rice.edu/CppResources/DesignPatterns/observer.html
128 Chapitre 8. La scénarisation de l’évaluation

8.6.3 Association d’une position à un résultat préalablement obtenu


La récupération de résultats produits par une activité n’ayant plus cours (récupération asynchrone)
s’exprime dans LDL par une position qui va observer le résultat du produit. Dans ce cas de figure, le
modèle observateur/observable n’est pas nécessaire. LDI va alors suivant l’URI du résultat récupérer sa
valeur et l’associer à la position. La position observatrice prendra alors comme valeur celle du résultat.

8.6.4 Usage d’une position par une enceinte


Pour transmettre des positions à une enceinte, nous avons développé un agent logiciel de paramètrage
des enceintes. Cet agent aura en charge de récupérer les paramètres de l’URL de l’enceinte méthode et de
les remplacer par les valeurs des objets LDL utilisés. Dans le cas d’un rôle, l’agent donnera les identifiants
des participants ayant ce rôle et, dans le cas d’une position, le ou les valeurs de la position. La syntaxe
de la nouvelle URL dépend de ce qui est attendu par l’enceinte paramétrée. C’est l’agent de paramétrage
qui à la charge de correctement construire l’URL adaptée à l’enceinte.

8.6.5 Définition des règles de calcul d’une évaluation et production d’un ré-
sultat
Pour exécuter des calculs sur des positions durant une évaluation (cf. 8.5.6), un agent de calcul a
été spécifié. Cet agent permet d’effectuer des calculs simples, tels que des additions, multiplications,
soustractions, etc. de positions et de valeurs. Il intègre aussi des méthodes de calcul, telles que le calcul
du rang d’un élève ou d’une moyenne relative à un groupe d’élèves. Ces fonctions prennent alors en
paramètre une position commune. Ces calculs sont réalisés dans une interaction d’évaluation qui produit
un résultat. Le résultat produit est stocké en utilisant le formalisme de résultat dans une base de données
de résultats pour pouvoir les utiliser ultérieurement. Le résultat engendré aura comme :
– acteurs évalués : les auteurs des positions en paramètre des calculs ;
– produit : les enceintes des produits en paramètre des calculs ;
– caractéristiques : les valeurs des positions utilisées en paramètre ;
– évaluation : la description de l’interaction ;
– résultat : la valeur de la position ;
– évaluateur : les participants de l’interaction d’évaluation.
Le résultat ainsi créé ne contient pas tous les éléments de résultats. En particulier, les critères d’évaluation
en sont absents. Cependant, l’expression du résultat est relativement explicite sur la manière dont il a
été calculé.
8.7. Conclusion 129

8.7 Conclusion
8.7.1 Bilan des extensions de LDL
Le tableau ci-dessous synthétise les différentes extensions que nous avons réalisées pour permettre au
langage LDL de prendre en compte l’évaluation.

Problèmes Extensions de LDL


Association d’une position à une caractéris- Définition de positions observatrices de caractéris-
tique d’un produit tiques.
Association d’une position à un résultat déjà Définition de positions observatrices de résultats.
obtenu
Utilisation d’une position par une enceinte Création d’enceintes méthodes qui peuvent prendre
des positions en paramètres.
Définition des règles de calculs sur les posi- Définition de règles et de méthodes de calcul simples
tions dans le champ action des interactions.
Production d’un résultat par une interaction Définition de positions résultats d’une interaction
stockées automatiquement.
Communication de positions entre activités Ajout de la portée d’une position : activité, scénario
scénarisées et infrastructure.

Tab. 8.19 – Synthèse des extensions de LDL proposées

8.7.2 Bilan de l’enrichissement de LDI


L’enrichissement de LDI a été réalisé au regard des différentes extensions réalisées dans le langage
LDL. C’est ce que nous retrouvons dans le tableau ci-dessous.

Problèmes Enrichissement de LDI


Association d’une position à une caractéris- Extension du modèle observateur/observable aux po-
tique d’un produit sitions qui deviennent observatrices de caractéris-
tiques sur des produits (enceintes de LDL).
Utilisation d’une position par une enceinte Définition d’un agent de paramétrage des enceintes.
Définition des règles de calcul sur les positions Définition d’un agent de calcul.
Communication de positions entre activités Définition d’une position comme une variable de pro-
scénarisées duction. Ayant une portée et pouvant être appelée
dans des endroits multiples.
Production d’un résultat par une interaction Développement d’une interface qui insère une posi-
tion dans une base de données.

Tab. 8.20 – Synthèse des enrichissements de LDI proposés

Certains de ces enrichissements nécessitent d’être poursuivis car ils ne sont en l’état pas pleinement
satisfaisants. C’est le cas de l’agent de paramètrage qui ne correspond pas pour l’heure à la vision que
nous avons de l’intégration des services d’un ENT dans lequel les services doivent pouvoir être intégrés de
manière dynamique, c’est-à-dire suivant les besoins des activités envisagées. Or l’agent de paramètrage
doit connaître les spécificités de chaque service pour pouvoir lui transmettre des positions en paramètre.
Pour l’instant, il ne s’adapte pas automatiquement aux services. Il doit être redéveloppé pour chaque
nouveau service intégré.
130 Chapitre 8. La scénarisation de l’évaluation

8.7.3 Discussion
Les propositions d’extension de LDL et de LDI permettent de répondre aux différents problèmes que
nous avons rencontrés pour scénariser l’évaluation de manière interne ou externe au scénario d’appren-
tissage.

Dans l’élaboration de ces propositions, nous nous sommes attachés à modifier le plus faiblement pos-
sible LDL afin de préserver la simplicité et la cohérence du langage. Ceci a été facilité notamment par le
fait que bon nombre d’éléments du modèle de résultats avaient un équivalent dans LDL.

Mais ces propositions dépassent le cadre de l’évaluation. La communication de positions entre activi-
tés scénarisées bouscule la vision traditionnelle de la scénarisation des activités d’apprentissage. Le fait
de pouvoir spécifier non plus un seul scénario spécialisé pour une activité d’apprentissage, mais plusieurs
scénarios simples qui s’assemblent pour définir une activité complexe est inédit. L’impact de cette avancée
se retrouve essentiellement au niveau de la réutilisation des scénarios simples, qui peuvent être utilisés
pour spécifier une multitude d’activités différentes.
Chapitre 9

Architecture

9.1 Introduction
La prise en compte, d’une part, de l’extension de LDL et, d’autre part, du modèle et du formalisme
de résultats nécessite de repenser l’architecture globale de l’infrastructure LDI.

L’utilisation des résultats et des caractéristiques de produits dans un scénario nécessite le stockage de ces
derniers et des mécanismes permettant de les utiliser dans une activité scénarisée.

En outre, dans le langage LDL, des calculs sur les positions sont exprimables. Ces calculs sont délé-
gués à un agent de l’infrastructure. Il est nécessaire de spécifier cet agent et de l’intégrer à la proposition
d’architecture qui est faite ici.

Dans la suite de ce chapitre, une première vue de l’architecture sera tout d’abord proposée. Cette archi-
tecture illustrera le choix opéré en matière de stockage des résultats et des caractéristiques à évaluer. Dès
lors, seront explicités les moyens envisagés pour permettre le dialogue entre LDI et la base de résultats.
Cette étude donnera lieu à un seconde architecture qui viendra compléter la première. Enfin, les agents
responsables des calculs sur les positions et du paramètrage des enceintes seront ajoutés pour constituer
la proposition finale d’architecture.

9.2 Persistence des résultats et des caractéristiques


9.2.1 L’usage natif de XML dans l’infrastructure
Dans le langage LDL, des résultats sont produits par des interactions ; dans l’infrastructure LDI, ce
sont les enceintes manipulées par l’activité qui produisent des résultats. Ces résultats doivent respecter le
formalisme exhibé dans la partie précédente. Or les applications informatiques considèrent souvent XML
comme un format d’échange de données et conservent généralement une représentation interne différente
[Gir06]. Ceci implique de nombreux revers dont, notamment, le problème "d’impedance matching", c’est-
à-dire la nécessité de trouver un isomorphisme entre les deux représentations de données et la nécessité
d’implémenter des systèmes d’importation et d’exportation. De plus, de nombreux normes et standards
sont apparus pour armer XML de l’ensemble des fonctionnalités nécessaires permettant de régler les
problématiques les plus courantes de la gestion de données :
– XSD (XML Schema Description) pour la description, utilisé pour la description du formalisme de
résultats ;
– XSL (eXtensible Stylesheet Language) pour la transformation d’un fichier XML en vue d’en afficher
les informations par exemple ;
– XPATH55 pour la récupération et l’utilisation des contenus d’un document XML ;
55 XML PATH Language, http ://www.w3.org/TR/xpath#section-Introduction

131
132 Chapitre 9. Architecture

– XQuery56 pour le requêtage, c’est-à-dire la récupération d’informations contenues dans une base de
données XML ;
– XUpdate57 pour la mise à jour de données XML stockées dans une base.
L’usage nativement de XML par une infrastructure logicielle lui garantit un haut niveau d’interopérabilité
et surtout une indépendance entre données et applications garantissant ainsi la pérennité de celles-ci. De
plus, les infrastructures peuvent bénéficier des protocoles attachés à XML (XSD, XSL, XQuery, XUpdate,
etc.) et implémenter dans de nombreux langages pour décrire, présenter et plus généralement manipuler
leurs données tel que le langage de résultat présenté précédemment.

9.2.2 La base de données eXist


L’avènement d’XML a eu un impact important, en particulier sur le monde des bases de données. Or
les solutions qui existaient sur le marché ont tardé à s’adapter à ce formalisme (MySQL58 , Oracle59 , etc.),
et ont préféré fournir des supports pour ces types de données sans le choisir pour eux-mêmes nativement.
Parallèlement, de nouvelles solutions de Systèmes de Gestion de Base de Données (SGBD) sont apparues
dédiées aux données XML, proposant, d’une part, le stockage des données au format XML nativement et,
d’autre part, l’implémentation des protocoles associés (XPATH, XSL, XQUERY, etc.)pour l’accès aux
données.

C’est le cas de la base de données eXist60 qui présente des avantages pertinents pour le stockage des
résultats :
– C’est une solution libre diffusée sous licence GPL61 ;
– C’est une solution interopérable (accessible via SOAP62 , XML-RPC63 , etc.) ;
– C’est une solution qui implémente les protocoles et interfaces de programmations nécessaires à la
réalisation de notre projet (XSD, XQuery, XPATH, XML :DB64 ) ;
– C’est une solution "scalable" qui supporte la monté en charge des utilisations, et le "clustering", et
peut donc être distribuée sur plusieurs serveurs.

9.2.3 Le langage XQuery


EXist, comme les autres bases de données XML, devait fournir un langage de requêtage cohérent,
capable de remplacer le langage SQL (Simple Query Language) dont la pratique s’est généralisée pour les
bases de données relationnelles. Pour cela, le W3C65 a lancer une initiative pour normaliser un langage
de requêtage adapté à XML : il s’agit d’XQuery. XQuery intègre XPATH pour la sélection des données
en ajoutant :
– des instructions proches de SQL (For, In, Where, et Return) ;
– des modalités de formatage de données ;
– des instructions de modification des données.

Voici un exemple de requête XQuery :

//Produit[EIAH/type="Traitement de Texte"]

La requête XQuery ci-dessus est composée d’un chemin et d’un prédicat XPATH. "//" signifie que toute
la base est concernée par le recherche des éléments "Produit". Le prédicat exprimé entre crochets indique
que seuls les produits d’un EIAH de type "Traitement de Texte" doivent être sélectionnés.
56 XML Query Language, http ://www.w3.org/TR/xquery/
57 XML Update Language, http ://xmldb-org.sourceforge.net/xupdate/
58 MySQL, http ://www.mysql.com/
59 Oracle, http ://www.oracle.com/lang/fr/database/index.html
60 eXist, http ://exist.sourceforge.net/
61 GNU General Public License, http ://www.gnu.org/copyleft/gpl.html
62 Simple Object Access Protocol (SOAP), http ://www.w3.org/TR/2000/NOTE-SOAP-20000508/
63 XML-RPC, http ://www.xmlrpc.com/
64 XML :DB, http ://xmldb-org.sourceforge.net/xapi/xapi-draft.html#N90832e
65 World Wide Web Consortium, http ://www.w3.org/
9.2. Persistence des résultats et des caractéristiques 133

La réponse de la base eXist sera de la forme suivante.

<Produit type="application/msword">
<uri>http://ld.pential.com/Produits/4C/Gregory/Dictee1</uri>
<description>Dictée 1</description>
<possede>
<Caracteristique id="Orthographe_dictée" type="intrinseque">
<description>Contenu de la dictee</description>
<valeur typeValeur="String">C’est une rivière, .....</valeur>
</Caracteristique>
</possede>
<produitPar>
<acteurEvalue>gorsa</acteurEvalue>
</produitPar>
<EIAH type="Traitement de Texte">
<uri>http://ld.pential.com/Produits/Ttexte</uri>
<nom>Ttexte</nom>
<version>1.5</version>
</EIAH>
</Produit>
....

9.2.4 L’interface de programmation XML :DB


L’interface de programmation XML :DB (XML Database) définit des méthodes d’accès pouvant être
utilisées pour tous les types de bases de données XML. Elle permet la construction d’applications qui
peuvent stocker, récupérer, modifier des données contenues dans une base XML. Cette API peut être
considérée comme l’équivalent des technologies ODBC (Open DataBase Connectivity) ou JDBC (Java
DataBase Connectivity) utilisées pour des bases de données plus classiques telles que des bases SQL ou
Oracle.
Elle est composée de différents modules :
– tout d’abord un module de base permet entre autre, d’initialiser une connexion avec une base de
données XML ;
– un module "Resources" permet de gérer les fichiers XML manipulés ;
– et enfin, un module "Services" pour lancer des requêtes sur la base de données dans le langage
XQuery.
Ces modules, de faible taille (physique et en nombre de fonctions), sont facilement exploitables dans une
application.
134 Chapitre 9. Architecture

9.2.5 Architecture pour le stockage des résultats

Fig. 9.1 – Architecture pour le stockage des résultats

La figure ci-dessus (cf. figure 9.1) illustre de manière globale notre proposition d’architecture. Elle
s’organise autour de la base de donnée eXist qui a pour rôle de stocker les résultats exprimés dans le
formalisme de résultats (Base de résultats). Ces résultats et ces produits sont issus des enceintes utilisées
lors des activités scénarisées, que ce soit des activités d’évaluation ou d’apprentissage. Les résultats et les
caractéristiques des produits sont utilisables par les activités via un ensemble de services Web qui per-
mettent de dialoguer avec la base eXist. Les services Web permettent aux services de l’ENT de stocker
leurs résultats dans la base de résultats et à LDI de récupérer certaines informations sur ces résultats,
dont les caractéristiques de produits à évaluer.

Ces services Web utilisent l’API XML :DB pour interagir avec la base XML eXist. Le dialogue entre
enceintes et services Web s’appuie sur le protocole HTTP. Les enceintes peuvent envoyer des requêtes
contenant des fichiers en utilisant la méthode Post et en encryptant le fichier dans le corps de la requête.
Le fichier contient des résultats formalisés issus de l’enceinte émettrice. Nous détaillons dans ce qui suit
l’utilisation de ces résultats.
9.3. Association des résultats aux positions 135

9.3 Association des résultats aux positions


9.3.1 Archivage des résultats produits par des interactions d’évaluation
Les services Web sont utilisés par LDI pour archiver les résultats produits par une interaction d’éva-
luation. Il est donc nécessaire de traduire les spécifications LDL en requêtes XQuery et en fichiers XML
et de les passer en paramètres des méthodes implémentées par les services Web.

Fig. 9.2 – Archivage des résultats issus d’une interaction LDL

Lors de l’archivage de résultats produits par une interaction LDL, une interface ou gateway se charge de
la traduction du résultat dans le langage de formalisation des résultats. Puis l’interface appelle la méthode
des services Web qui permet de stoker ce résultat et lui passe en paramètres la bonne commande XQuery.

9.3.2 Récupération de résultats préalablement obtenus

Fig. 9.3 – Récupération des résultats d’évaluation par une position

Dans le cas de la récupération des résultats, l’interface traduit la demande de résultats exprimée
dans LDL par une position observatrice de résultats. L’interface interroge alors le service Web capable
d’effectuer le traitement demandé en lui indiquant l’URI du résultat à récupérer dans la base. L’interface
reçoit alors une réponse qu’elle remonte à l’activité en cours.

9.3.3 Mise en place du modèle observateur/observable pour la récupération


de caractéristiques
Pour récupérer les caractéristiques de produits réalisés par les apprenants au cours de l’activité scé-
narisée, le mécanisme employé est quelque peu différent. En effet, l’infrastructure LDI utilise en interne
le modèle de conception observateur/observable. Au niveau de la base de données, les résultats ajoutés
doivent être remontés aux éventuels observables de l’infrastructure LDI. Pour permettre la remontée des
136 Chapitre 9. Architecture

Fig. 9.4 – Fonctionnement du trigger

résultats de la base de données vers LDI, nous proposons l’usage d’un trigger ou déclencheur. Ce trig-
ger est chargé, lors de l’ajout d’un résultat en base, de notifier LDI. La notification contient les valeurs
du résultat exprimés dans le formalisme de résultat. LDI est alors en mesure d’associer la notification
reçue à un observable existant dans l’infrastructure. Le mécanisme de notification du modèle observa-
teur/observable implémenté par LDI est alors déclenché et les observateurs sont notifiés.
Le fait de passer en paramètres de la notification le résultat évite à l’infrastructure de retourner chercher
le résultat en base qui peut entre temps avoir été modifié. Cela permet en outre d’optimiser les accès à la
base, et constitue une réelle remontée synchrone des résultats produits par les enceintes. La notification
repose là encore sur le protocole HTTP et utilise une requête contenant un fichier exprimant le résultat.

9.3.4 Architecture pour l’utilisation des résultats par des scénarios


Dans le schéma d’architecture 9.5, apparaissent l’interface de dialogue (gateway) avec les services Web
internes à LDI, ainsi que le dispositif de déclenchement (Trigger) permettant de remonter les résultats
lors de leur création vers LDI. Le déclencheur observe les appels de méthodes passés aux services Web
et, dans le cas d’une insertion, notifie LDI en indiquant la valeur du résultat. Ce résultat exprimé dans
le formalisme de résultat doit alors être traduit par la gateway pour être utilisé dans LDI.
9.4. Les agents de l’infrastructure 137

Fig. 9.5 – Architecture intégrant le détail des mécanismes de dialogue entre LDI et la base eXist

9.4 Les agents de l’infrastructure


9.4.1 La notion d’agent
Ce que nous entendons par agent n’est pas l’agent tel qu’il existe dans les "règles de l’art" [Woo01].
Nous n’avons pas spécifié de modèle d’agent ni même de langage de communication. Cependant, un
parallèle entre les systèmes multi-agents et les agents de notre infrastructure est possible. La notion
d’agent telle qu’elle est à comprendre ici est celle d’une entité logicielle autonome capable de percevoir
et d’agir dans un environnement. L’environnement est constitué des différents éléments constituant notre
architecture. Quant aux actions que doivent réaliser nos agents, nous les détaillons dans ce qui suit.

9.4.2 L’agent de calcul


L’agent de calcul doit être en mesure de réaliser des calculs simples sur les valeurs de positions définies
dans le scénario. Cet agent réalise des traitements sur des valeurs numériques.

Lorsque la valeur d’une position est un nombre, l’agent est en mesure de réaliser des calculs simples
tels que l’addition, la soustraction, la multiplication, la division de valeurs de positions, mais aussi des
calculs de moyenne et de rang en fonction de positions individuelles. Dans ce cas, l’agent est capable de
récupérer les valeurs associées à chaque participant ayant comme rôle dans l’activité celui défini dans la
position, comme nous l’avons vu en 5.3.2, Le résultat de ce calcul s’exprime dans une nouvelle position.
138 Chapitre 9. Architecture

Pour l’heure, l’agent de calcul ne permet qu’assez peu de traitements. Il pourrait être utile d’étendre
les fonctionnalités de cet agent pour réaliser des traitements sur les chaînes de caractères afin d’exploiter
des positions encapsulant des résultats de communication.

9.4.3 L’agent de paramètrage


L’agent de paramètrage a une double fonction. Tout d’abord, il doit transmettre les valeurs des posi-
tions aux enceintes afin qu’elles puissent les exploiter, par exemple dans le cas où l’enseignant a besoin de
visualiser les résultats de ces apprenants dans une interface. L’agent de paramétrage aura en charge de
transformer l’URL de l’enceinte de type méthode pour qu’elle puisse être traitée par le service de l’ENT
associé.
L’agent de paramètrage doit également informer les services de l’ENT du contexte de leur utilisation,
c’est-à-dire lui indiquer les participants, leurs rôles et toutes les informations nécessaires à l’expression
d’un résultat.

Pour permettre la double mission de l’agent de paramètrage, les services doivent disposer d’une API
implémentant des méthodes d’initialisation.

L’agent de paramètrage soulève la question de l’interopérabilité, en particulier de la standardisation de


l’API des services pour éviter à l’agent de paramètrage d’être modifié à chaque intégration d’un nouveau
service dans l’infrastructure. Une solution envisageable consisterait à utiliser des spécifications d’API telle
que OKI-OSID (cf. 4.3.1).

9.4.4 Architecture de création et d’affichage des résultats


L’architecture détaillée 9.6 illustre notre proposition finale d’architecture. Elle explicite le cycle com-
plet de production et d’utilisation des résultats.

Dans cette figure, les agents de paramètrage et de calculs sont inféodés à LDI. L’agent de calcul est
sollicité lorsqu’une interaction dans laquelle un calcul est demandé débute. L’agent de paramétrage est
lui sollicité à chaque accès d’un utilisateur à une enceinte.

Pour réutiliser notre notion d’agent (cf. 9.4.1), on peut remarquer que les deux agents agissent sur
l’environnement : l’agent de paramètrage sur les services de l’ENT et l’agent de calcul sur les résultats
de l’infrastructure LDI.
9.5. Maintenance de la base de résultats 139

Fig. 9.6 – Proposition finale d’architecture

9.5 Maintenance de la base de résultats


9.5.1 Les problèmes de charge
La base de résultats occupe une position centrale dans la proposition d’architecture, cette base de
données risque, dans des conditions normales d’utilisation, c’est-à-dire lorsque plusieurs activités sont
en cours, d’être très fortement sollicitée. En outre, un grand nombre de résultats et en particulier de
nombreuses caractéristiques externes vont être stockés dans cette base. Le problème de charge de la base
de donnée est central dans ce type d’architecture. Les performances de l’accès à une base de données
sont décroissantes en fonction du nombre d’accès à la base et l’importance des données stockées. Il est
donc indispensable, pour permettre le passage à l’échelle de l’infrastructure, de penser des mécanismes
permettant de garantir ses performances.

9.5.2 Fonctionnement de la base de résultats en mode cluster


La base eXist autorise la fonctionnement en mode cluster. Le principe est de distribuer la base de
données sur plusieurs serveurs afin de distribuer aussi la charge du point de vue des accès.
Dans cette configuration, la base de données reçoit par le biais de son API les requêtes issues des
services Web. L’API redirige ensuite les requêtes entre les différentes instances de la base. Si une instance
est modifiée, la modification est propagée aux autres instances. Cette redirection est faite sur l’instance
la plus disponible. Ce mécanisme permet de traiter un très grand nombre de requêtes. Dès que les
140 Chapitre 9. Architecture

Fig. 9.7 – Fonctionnement de eXist en mode "cluster"

performances diminuent, il est possible d’ajouter une nouvelle instance de la base. Cette dernière peut être
distribuée et se trouver physiquement sur une autre machine. Le fonctionnement en cluster ne solutionne
cependant pas les problèmes liés à l’augmentation de données stockées.

9.5.3 Suppression des résultats


Pour pallier le problème de l’augmentation de la taille de la base de données, il est nécessaire de
supprimer au fur et à mesure les données qui ne sont plus utiles. Cela soulève un problème lié au tri des
résultats entre ceux qu’il faut absolument garder et ceux qui ne sont plus utiles. La politique de gestion
de la base doit donc être élaborée en accord avec les différents intervenants, que ce soient les utilisateurs
ou l’administrateur de l’infrastructure. Du point de vue technique, la suppression de certains types de
résultats ne pose pas de problème. EXist propose une interface d’administration qui permet de faire des
requêtes XQuery et donc de supprimer tels ou tels résultats.

9.6 Synthèse et discussion


L’architecture proposée permet de répondre aux besoins engendrés par le langage LDL enrichi, LDI
étendu et le formalisme de résultats. Cette architecture s’organise autour d’une technologie XML de ges-
tion de bases de données et plus précisément de la base eXist. Cette solution évite, grâce au stockage
directement en XML des résultats, des problèmes de transformation de modèles. Ces problèmes auraient
été rencontrés si nous avions adopté une base de données relationnelle classique. Cependant, compte
tenu de la grande quantité d’informations que cette base de données va devoir stocker, on peut s’interro-
ger sur sa capacité à tenir la charge. Des solutions ont été proposées et doivent maintenant être éprouvées.

L’autre apport de cette proposition est la mise en place d’éléments évolutifs tels que les agents. Ces
agents pourront à l’avenir être enrichis pour effectuer des calculs différents (agent de calcul) et prendre
en compte les propositions (SIF [SIF05], SQI [SQI04], OKI-OSID [KMT04]) faites actuellement pour la
description des interfaces de programmation (agent de paramètrage).

En outre, l’indépendance entre modèle d’activité et infrastructure a été préservée grâce au mécanisme de
gateway qui traduit les spécifications des résultats dans un langage compréhensible des services Web et
inversement. Enfin, le fonctionnement du modèle observateur/observable qui existait initialement dans
LDI et avait été étendu aux positions a été sauvegardé grâce au système de déclencheur. En effet, ce
système permet de conserver le mécanisme de notification entre la base de données et LDI.
Chapitre 10

Traitement du cas d’étude : le jeu des


planètes

10.1 Introduction
Les propositions d’extension de LDL (cf. 8.5 et annexe A) et d’enrichissement ont été développées
et utilisées dans le cadre du cas d’étude (cf. 5.7) intitulé le "jeu des planètes". Nous présentons ici, la
proposition de modélisation [MVF06a] de cette activité d’apprentissage [VDF+ 06b] réalisée par l’équipe
scénario du laboratoire SysCom de l’Université de Savoie.

10.2 Rappel de l’activité du cas d’étude


Cette activité est plus amplement décrite dans la partie 5.7. Dans cette activité, les apprenants ont tous
le même problème à résoudre. Ils sont regroupés en deux équipes qui ont accès à des indices permettant
de reconstituer l’ordre des planètes du système solaire. Les deux équipes doivent collaborer en utilisant
un forum pour échanger des informations. Les membres de chaque équipe peuvent discuter entre eux en
utilisant un chat.
Durant l’activité, l’enseignant a accès au forum. Il peut participer à la discussion pour donner des indices
supplémentaires. Il peut aussi proposer aux participants des questionnaires leur permettant de gagner des
indices en cas de bonne réponse. Lorsqu’il le décide, l’enseignant peut mettre fin à l’activité de recherche
de l’ordre des planètes. Les apprenants doivent alors répondre individuellement à un questionnaire leur
demandant leur classement de planètes. Le gagnant est celui qui donne le bon classement. L’activité se
termine quand un gagnant est désigné.

10.3 Les évaluations du cas d’études


En 5.7.2.0, nous avons expliqué l’intérêt de cette activité du point de vue de l’évaluation. Plusieurs
évaluations différentes ont été évoquées. Dans le traitement du cas d’étude, nous en avons finalement
proposé deux, celles qui nous semblaient essentielles au bon déroulement de cette activité, tout d’abord,
une évaluation formative des apprenants qui sera menée durant la phase collective du jeu des planètes,
puis une évaluation sommative qui se déroulera lors de la phase individuelle.

10.3.1 Une évaluation formative


L’évaluation formative est menée par l’enseignant durant l’activité de recherche des informations par
les apprenants. Cette activité d’évaluation permet à l’enseignant d’observer le déroulement de l’activité
et d’intervenir pour la réguler. Il doit donc être en mesure d’observer les discussions dans le forum et
dans les chats pour intervenir dans le cas où l’activité ne se déroulerait pas suivant ses prévisions, par

141
142 Chapitre 10. Traitement du cas d’étude : le jeu des planètes

exemple, dans le cas où les apprenants ne parviennent pas à coopérer ou si certains élèves perturbent
l’activité, etc. Il doit aussi pouvoir ajouter des questionnaires permettant aux apprenants de gagner des
indices. L’enseignant doit donc en même temps connaître la nature des échanges dans le forum et dans les
deux chats, et avoir accès à toutes ces enceintes pour observer et intervenir. Mais l’observation de cette
activité peut aussi l’informer sur le niveau de participation des apprenants et leur comportement. Ces
observations sont utiles dans le processus global d’apprentissage et permettent à l’enseignant d’adapter
ses enseignements, par exemple dans la perspective d’une individualisation future des apprentissages.

10.3.2 Une évaluation sommative


L’évaluation sommative individuelle permet de déterminer le gagnant de l’activité au cours de laquelle,
nous l’avons dit, chaque apprenant doit ordonner les planètes du système solaire. Le gagnant est ensuite
déterminé suivant les réponses qu’il a donné de manière automatique. Nous verrons plus loin comment
nous avons automatisé la détermination du gagnant à partir de LDL étendu.

10.4 Modélisation du jeu des planètes avec LDL étendu dans LDI
enrichi
10.4.1 Modélisation globale du cas d’étude

Fig. 10.1 – Proposition de modélisation du jeu des planètes

Nous avons choisi de modéliser le jeu des planètes par cinq activités différentes. L’activité d’évalua-
tion sommative est séparée de l’activité d’apprentissage. Ce choix est en accord avec notre proposition
de séparer l’évaluation de l’activité d’apprentissage en vue d’améliorer la réutilisabilité et la lisibilité des
scénarios qui les décrivent.

En revanche, l’évaluation formative est menée grâce aux activités d’apprentissage et d’observation. Cette
évaluation ne fait pas l’objet d’un scénario unique. Nous avons choisi cette solution pour simplifier l’auto-
matisation partielle de l’opérationnalisation réalisée durant l’activité d’organisation des scénarios d’obser-
vation, d’apprentissage et d’évaluation. L’opérationnalisation d’un scénario d’évaluation formative aurait
10.4. Modélisation du jeu des planètes avec LDL étendu dans LDI enrichi 143

nécessité le partage d’enceintes avec les activités d’apprentissage. Il aurait fallu traiter cette particularité
dans le scénario d’organisation et donc le rendre encore plus complexe. Il était plus simple de définir une
activité d’observation et de permettre à l’enseignant d’interagir avec les participants directement dans
les activités d’apprentissage.

L’activité d’organisation permet à chaque apprenant de lire les consignes, de choisir son groupe et d’at-
tendre que l’activité d’apprentissage débute. Une fois que tous les apprenants ont choisi leur équipe,
l’enseignant démarre alors les activités d’apprentissage, d’observation et d’évaluation sommative.

Ces activités se déroulent en parallèle. Dans les activités d’apprentissage, chaque apprenant peut consul-
ter l’interview d’un expert, discuter avec les membres du groupe dans le chat et avec les membres de
l’autre équipe dans le forum. Ils peuvent, si l’enseignant les y autorise, répondre à des questions pour
obtenir des indices.

L’activité d’observation permet à l’enseignant de mener une réelle évaluation formative (cf. 10.3.1) des
activités d’apprentissage. Elle lui permet aussi de superviser le déroulement de chaque activité. Dans cette
activité d’observation, l’enseignant est le seul acteur. Mais il est aussi acteur des activités d’apprentissage.
Dans chacune d’entre elles, il peut accéder aux enceintes et donc participer aux discussions. Il peut aussi
rendre accessibles les questionnaires permettant de gagner des indices aux apprenants. Enfin, c’est lui qui
décide de l’arrêt des activités d’apprentissage.

Une fois ces activités terminées, l’évaluation sommative (cf. 10.3.2) devient accessible aux élèves. C’est
pour cette raison que nous avons représenté l’évaluation sommative comme se déroulant à la suite des
activités d’apprentissage dans la figure 10.1.

Les activités d’apprentissage sont deux activités identiques dans leur déroulement mais dont les en-
ceintes et les participants sont différents. C’est pourquoi elles sont décrites par un même scénario. Notre
proposition de scénarisation du jeu des planètes nécessite donc quatre scénarios différents.

10.4.2 Relations entre les activités

Fig. 10.2 – Les objets partagés entre activité d’observation et d’apprentissage

L’activité d’observation se déroule parallèlement aux activités d’apprentissage. Ces trois activités sont
démarrées par l’enseignant durant l’activité d’organisation. Les activités d’apprentissage se terminent en
144 Chapitre 10. Traitement du cas d’étude : le jeu des planètes

même temps, c’est-à-dire lorsque l’enseignant le décide, ce qui se traduit par le partage de la position
"Fin des activités" entre les activités d’apprentissage. Les activités d’apprentissage partagent aussi une
enceinte, le forum.

Fig. 10.3 – Objets partagés entre les activités d’apprentissage et l’activité d’évaluation sommative

L’activité d’observation se poursuit lorsque l’activité d’évaluation sommative débute. Cette dernière
partage la position "Fin des activités" qui exprime la fin des activités d’apprentissage. Cette position
permet de démarrer les interactions de l’activité d’évaluation sommative.

10.5 Proposition de scénarisation du cas d’étude


Les fichiers XML des scénarios présentés ici sont accessibles à l’adresse suivante :
http ://ld.pentila.com. Il est aussi possible de jouer le cas d’étude sur ce site (identifiant : gdura, mot de
passe : gdura).

10.5.1 Scénarisation de l’activité d’organisation


L’activité d’organisation est jouée par l’enseignant et les élèves. Les élèves lisent les consignes et choi-
sissent leur groupe dans une enceinte adaptée. Cette enceinte évite qu’un groupe ait plus de membres que
l’autre et que des membres appartiennent aux deux groupes. Une fois la constitution des groupes termi-
née, les apprenants attendent que l’enseignant démarre les activités d’apprentissage et termine l’activité
d’organisation. Les apprenants patientent en consultant un interlude.

La scénarisation de cette activité d’organisation est assez complexe. Elle fait appel à près de trente-
sept enceintes et autant d’interactions. Le tableau ci-après (cf. figure 10.1) simplifie le scénario original
et ne présente que les éléments essentiels du scénario d’organisation.
10.5. Proposition de scénarisation du cas d’étude 145

Scénarisation de l’activité d’organisation


Éléments de LDL Composants du scénario
Rôles Enseignant et élève.
Enceintes Consignes,
choix du groupe A,
choix du groupe B,
interlude,
scénario apprentissage,
scénario observation,
scénario évaluation,
affectation enceinte scénario ...,
affectation utilisateurs scénario ...,
démarrage scénario ...,
activité apprentissage groupe A ...
Interactions Lire consigne,
choisir groupe A,
choisir groupe B,
visualiser l’interlude,
créer activité apprentissage groupe A,
créer activité apprentissage groupe B,
créer activité évaluation,
créer activité observation,
assigner enceintes activité ...,
assigner rôles activité ...,
démarrer activité ...,
Structures Structure principale (séquentielle)
créer activité ...,
Lire consigne,
phase (parallèle) : choix groupe choisir groupe A,
choisir groupe B,
phase (séquentielle) : opérationnalisation
visualiser l’interlude,
assigner enceintes activité ...,
assigner rôles activité ...,
démarrer activité ...
Positions Positions de début et de fin d’interactions.
Règles Règles de début et de fin d’interactions.

Tab. 10.1 – Les éléments LDL pour spécifier l’activité d’organisation du cas d’étude

Pour mettre en oeuvre le scénario d’organisation, une enceinte permettant de choisir son groupe a été
développée. Une fois que l’apprenant a choisi son groupe dans cette enceinte, cette dernière l’ajoute au-
tomatiquement dans la liste des participants des activités d’observation et d’apprentissage. Cela explique
pourquoi les activités doivent être créées avant que les élèves ne choisissent leurs groupes.

En outre, cette enceinte est particulière dans le scénario. C’est une enceinte de type méthode qui pointe
sur une URL ayant comme paramètre le nom des activités auxquelles elle doit associer les participants
qui vont choisir ce groupe.
146 Chapitre 10. Traitement du cas d’étude : le jeu des planètes

Voici ci-dessous l’expression LDL de l’enceinte permettant aux participants de s’inscrire dans le groupe
A:

<Enceinte id="group_A_join_url" kindOfEnceinte="method">


<title/>
<description>If you want to join group A, ...</description>
<source>
<URL>LDI/assign_roles_to_user?roles:list=learner&#38;runsId:list=actlearningGA...</URL>
</source>
</Enceinte>

Dans l’URL apparaît l’identifiant des activités auxquelles chaque membre du groupe A va être inscrit.
Cet identifiant est celui de l’enceinte qui représente l’activité. Ici "actlearningGA" est l’identifiant de
l’enceinte activité d’apprentissage du groupe A dans le scénario d’organisation. On peut aussi noter que
le rôle "learner" de l’apprenant est passé en paramètre. L’agent de paramètrage que nous avons aussi
proposé comme enrichissement de LDI va remplacer ce paramètre par l’identifiant du participant de
rôle élève (learner) qui s’inscrit dans le groupe. L’enceinte pourra alors inscrire l’élève dans les activités
spécifiées en paramètres de l’URL.

10.5.2 Scénarisation des activités d’apprentissage


Durant l’activité d’apprentissage, les élèves doivent consulter le document des experts, dialoguer au
sein du groupe dans le chat et avec l’autre groupe dans le forum. Chaque groupe ne peut répondre qu’une
seule fois aux quatre questionnaires. Chaque questionnaire donne un indice différent, aidant à ordonner
les planètes, en cas de bonne réponse. Les apprenants peuvent ensuite remplir un tableau qui synthétise
les informations collectées sur les planètes. L’enseignant peut participer aux conversations. Il ne peut
cependant pas ajouter de questionnaires durant l’activité. En effet, chaque questionnaire est une enceinte
dont la réponse est une position qui est évaluée pour donner accès ou non à un indice. Il est nécessaire de
définir ces éléments (enceintes, positions, etc.) avant le démarrage de l’activité dans le scénario. Il n’est
pas possible de le faire durant son déroulement. Le tableau ci-dessous synthétise les éléments essentiels
de ce scénario.

Scénarisation de l’activité d’apprentissage


Éléments de LDL Composants du scénario
Rôles Enseignant et élève.
Enceintes Document expert,
chat,
forum,
table d’identité des planètes,
sac de questions,
question 1,
indice 1,
...,
question 4,
indice 4.

Tab. 10.2 – Éléments LDL spécifiant l’activité d’apprentissage du cas d’étude


10.5. Proposition de scénarisation du cas d’étude 147

Scénarisation de l’activité d’apprentissage (suite)


Éléments de LDL Composants du scénario
Interactions Lire document expert,
discussion intra-groupe,
discussion avec l’autre groupe,
répondre à un questionnaire,
obtenir indice 1,
...,
obtenir indice 4,
arrêter activité.
Structures Structure principale (parallèle)
lire document expert,
discussion intra-groupe,
discussion avec l’autre groupe,
répondre à un questionnaire,
obtenir indice 1,
...,
obtenir indice 4,
arrêter activité.
Positions Fin activité (partagée),
réponse question 1,
...,
réponse question 4.
Règles Règles de démarrage des interactions et d’évaluation des réponses.

Tab. 10.3 – Éléments LDL spécifiant l’activité d’apprentissage du cas d’étude (suite)

Les activités d’apprentissage se terminent quand l’enseignant le décide. La position de fin de l’activité
d’apprentissage est donc partagée par l’activité d’évaluation sommative.

Le scénario d’apprentissage utilise une autre de nos propositions. Les réponses données par les élèves
aux questions sont des caractéristiques des questions qui sont exprimées par autant de positions.

<Position id="PRepQ1" partition="commune">


<title>reponse à question 1</title>
<sur>question1</sur>
<de>learner</de>
<portee>activite</portee>
<valeur>
<Observer id="QTI">REP_Test1</Observer>
</valeur>
</Position>

Ci-dessus figure l’expression LDL d’une position qui récupère la caractéristique "REP_Test1" (identifiant
de la réponse dans la fichier IMS-QTI) sur l’enceinte question 1 (produit). Il manque l’attribut type de
l’"observer". La distinction entre "observer" de résultats et de caractéristiques n’étant pas encore implé-
mentée, cela explique son absence. Pour l’heure, seules les caractéristiques des produits sont observables.
Grâce au mécanisme de déclenchement (cf. 9.3.3) implémenté dans LDI, la réponse à la question sera
communiquée à l’activité d’apprentissage dès que l’apprenant l’aura produite.

Les positions qui expriment la réponse des élèves peuvent ensuite être évaluées dans des règles qui auto-
risent ou non l’accès aux indices.
148 Chapitre 10. Traitement du cas d’étude : le jeu des planètes

10.5.3 Scénarisation de l’activité d’observation


L’activité d’observation permet à l’enseignant de superviser le déroulement des activités d’apprentis-
sage et d’évaluation sommative, et d’intervenir s’il le juge nécessaire. A l’inverse de l’activité d’organisation
et de celles d’apprentissage, cette activité est beaucoup plus simple à exprimer dans LDL. Le scénario
d’organisation comporte une seule interaction et une seule enceinte.

Scénarisation de l’activité d’observation


Éléments de LDL Composants du scénario
Rôles Enseignant.
Enceintes Visualisation des traces d’activités.
Interactions Visualiser les traces des activités.
Structures Structure principale (séquentielle)
visualiser les traces des activités
Positions Les positions de début et de fin d’interactions (2 positions).
Règles Les règles de début et de fin d’interaction

Tab. 10.4 – Éléments LDL permettant de spécifier l’activité d’évaluation formative du cas d’étude

L’enceinte qui permet de visualiser les traces des activités d’apprentissage et d’évaluation est, là
encore, une enceinte méthode. Nous retrouvons ci-dessous la déclaration de cette enceinte dans LDL.

<Enceinte id="trails_access" kindOfEnceinte="method">


<title>Trails access</title>
<description/>
<source>
<URL>ateliers/Atelier-pedagogique/enceintes-pour-planet-game/trails</URL>
</source>
</Enceinte>

Cette enceinte ne prend pas de paramètres. Elle est simplement exécutée par LDI. Elle utilise le fait que
l’architecture proposée centralise toutes les caractéristiques des produits dans une base de données XML.
L’enceinte va fouiller la base en utilisant plusieurs requêtes XQuery et afficher pour l’enseignant, via une
feuille de style, les informations récoltées dans la base.

Fig. 10.4 – Enceinte de visualisation des traces d’activités


10.5. Proposition de scénarisation du cas d’étude 149

Dans la capture d’écran précédente (figure 10.4), nous pouvons remarquer que l’enseignant a ainsi
accès :
– à l’interaction que réalise chaque apprenant ;
– à l’état des activités (démarrées, stoppées, en cours) ;
– aux réponses données au test d’évaluation sommative données par chaque apprenant.
Le scénario d’observation lié à l’activité d’apprentissage permet à l’enseignant de réguler l’activité d’ap-
prentissage et donc de mener une évaluation formative. Le scénario d’observation va lui indiquer qui fait
quoi et le scenario d’apprentissage lui permettre d’interagir avec les apprenants. Le scénario d’observation
va aussi le renseigner sur les réponses des apprenants au test et donc lui donner les moyens de remédier
à certaines de leurs erreurs en proposant de nouvelles activités.

10.5.4 Scénarisation de l’activité d’évaluation sommative


L’activité d’évaluation sommative est une activité individuelle au cours de laquelle chaque apprenant
va devoir donner l’ordre exact des planètes du système solaire. Une fois que l’apprenant donne sa ré-
ponse, il peut attendre la proclamation du vainqueur. La détermination du vainqueur a été automatisée.
L’enseignant, grâce à l’activité d’observation, peut visualiser les réponses de chaque apprenant.

Scénarisation de l’activité d’évaluation sommative


Éléments de LDL Composants du scénario
Rôles Enseignant et élèves.
Enceintes Questionnaire,
proclamation du vainqueur.
Interactions Répondre au questionnaire,
voir le vainqueur.
Structures Structure principale (séquentielle)
répondre au questionnaire,
voir le vainqueur.
Positions Une position partagée pour démarrer la structure principale et les positions
habituelles.
Règles Règles habituelles de démarrage et de terminaison des interactions.

Tab. 10.5 – Éléments LDL permettant de spécifier l’activité d’évaluation sommative du cas d’étude

Le questionnaire a été réalisé en javascript. Ci-après (cf. figure 10.5), nous pouvons en voir une capture
d’écran. Les élèves doivent mettre le nom de chaque planète dans la case correspondante sur l’image
("drag’n’drop"). Lorsqu’ils appuient sur le bouton valider, le résultat est inséré dans la base de résultats.
L’enceintes envoie dans la base de résultat les réponses de l’apprenant formalisées (caractéristiques du
produit questionnaire) ainsi que l’identifiant de l’auteur de la réponse. Dans LDL, l’enceinte est donc une
enceinte méthode, tout comme dans le scénario précédent.
150 Chapitre 10. Traitement du cas d’étude : le jeu des planètes

Fig. 10.5 – Questionnaire d’évaluation proposé aux apprenants

L’espace de visualisation du gagnant est aussi une enceinte méthode. Elle ne prend pas de paramètres.
Cette enceinte va directement, en utilisant l’interface de programmation XHttpRequest66 , effectuer une
requête dans la base de résultats pour rechercher un vainqueur. Cette requête a besoin de connaître
l’activité d’évaluation courante pour pouvoir rechercher le gagnant parmi les participants de l’activité.
Ce paramètre lui est donné par l’agent de paramètrage. Dès qu’un gagnant est trouvé, son nom s’affiche
dans l’enceinte de visualisation.

10.6 Discussion
Cette proposition offre une très grande réutilisabilité des scénarios dans de nouvelles situations. Le
scénario d’organisation peut permettre de créer des groupes et lancer d’autres activités. Le scénario
d’observation est très générique de même pour le scénario d’évaluation sommative. On voit bien que les
propositions que nous avons faites en vue de "distribuer" les activités scénarisées (partage des positions,
usage des résultats, etc.) trouvent pleinement leurs sens dans le cas d’étude.

L’expression d’une activité complexe par plusieurs scénarios simples trouve aussi un intérêt en dehors de
la réutilisabilité des scénarios. Le scénario d’apprentissage que nous avons proposé, factorise deux activi-
tés en un seul scénario. Dans le cas où nous aurions choisi de réaliser un seul scénario pour exprimer la
totalité du cas d’étude, il aurait fallu spécifier dans ce scénario des interactions, les enceintes pour chaque
équipe. L’expression d’une activité par plusieurs scénarios est simplifiée.

Par ailleurs, le fait de disposer d’une infrastructure stockant les résultats d’évaluation mais aussi les
caractéristiques des productions des apprenants offre des avantages. Il est possible d’utiliser ces données
dans les activités mais aussi directement dans les enceintes comme dans le cas de la détermination du
gagnant, ce qui a pour conséquence d’élargir considérablement les possibilités de scénarisation et, en
particulier, de permettre de définir l’évaluation que l’on désire.

Dans l’étude des propositions faites pour mettre en oeuvre le jeu des planètes par les différentes équipes
(cf. 5.7.11), nous avions soulevé le fait que les besoins de l’enseignant pouvaient évoluer suivant le dérou-
lement de l’activité. Grâce aux propositions que nous avons faites en 8, il est techniquement possible à
l’enseignant d’ajouter ou de supprimer les évaluations qu’il désire. En 5.7.2.0, nous proposions diverses
évaluations pouvant être associées au jeu des planètes, telles qu’une évaluation normative, une évaluation
par pairs, etc. Les propositions de formalisation de résultats, d’extension de LDL, d’enrichissement de
LDI et d’architecture permettent aujourd’hui de les mettre en oeuvre.
66 XMLHttpRequest ,http ://www.w3.org/TR/2006/WD-XMLHttpRequest-20060619/
Chapitre 11

Synthèse des propositions

11.1 Un modèle de résultats


Trois propositions différentes ont été faites dans cette seconde partie. Tout d’abord, un modèle de
résultat. L’expression des résultats dans le cadre des ENT est non normalisée, ce qui a pour conséquence,
un manque d’inter-opérationnalité entre les services de l’ENT. Dans le contexte de la scénarisation et,
plus particulièrement, celui de la scénarisation de l’évaluation, il est nécessaire d’avoir des produits à
évaluer et des résultats d’évaluation. Nous avons essayé de modéliser un résultat d’évaluation en vue
de définir un formalisme commun permettant aux services de l’ENT d’exprimer les résultats et aux
infrastructures de scénarisation de les utiliser. Le formalisme de résultats proposé permet de prendre en
compte les grandes catégories de résultats rencontrées en EIAH. Il permet aussi d’exprimer la manière
dont le résultat d’évaluation est obtenu en définissant les caractéristiques des produits évalués, les critères
d’évaluation et la méthode d’évaluation employée. Ce formalisme intègre aussi la notion de compétence
grâce au formalisme IMS-RDCEO. Dans le formalisme IMS-RDCEO, la notion de compétence a un sens
large, ce qui permet d’associer un résultat certes à des compétences, mais aussi à des connaissances et à
un savoir-faire. Le formalisme de résultats, outre celle apportée au problème d’interopérabilité, apporte
une solution au problème de la crédibilité des résultats en EIAH. En rendant explicites les paramètres de
l’évaluation qui l’ont construit, il permet à l’enseignant de le comprendre et donc de l’utiliser pleinement.

11.2 Extension du langage LDL et enrichissement de LDI


L’extension du langage LDL et l’enrichissement de l’infrastructure de LDI constituent le deuxième
volet de la proposition. L’évaluation introduit des besoins particuliers du point de vue de sa scénarisation.
C’est une activité qui a besoin d’observer des caractéristiques de produits issues d’autres activités, qui les
évaluent et produit en retour des résultats d’évaluation. Dans un souci de réutilisabilité, nous avons pro-
posé de scénariser l’évaluation dans un scénario autonome. Cette scénarisation a induit des propositions
permettant aux activités évaluées et aux activités d’évaluation de dialoguer entre elles. Des extensions ont
été ajoutées au langage notamment au niveau du concept de position. Dans l’infrastructure, le modèle de
conception observateur/observable a été étendu aux positions. En outre, la scénarisation de l’évaluation
a introduit de nouveaux besoins quant à l’utilisation et la manipulation des résultats produits par les
activités. Nous avons alors introduit des agents logiciels capables de réaliser ces manipulations.

11.3 Une proposition d’architecture


Enfin, la proposition d’architecture vient répondre aux différentes difficultés de mise en oeuvre liées
aux propositions faites en amont. Elle répond au problème du stockage des résultats avec les risques
de performance qu’il induit. La résolution de ce premier problème est assurée par la mise en oeuvre
d’une base de données XML, la base eXist offrant des solutions intéressantes pour stocker de grandes

151
152 Chapitre 11. Synthèse des propositions

quantités d’informations et administrer une base de résultats. La proposition d’architecture intègre les
améliorations du langage de scénarisation et des entités logicielles capables de les mettre en oeuvre.

11.4 Un prototype
La proposition d’architecture a été partiellement implémentée par un prototype. Ce prototype a
permis de mettre en oeuvre la proposition du laboratoire SysCom pour traiter le cas d’étude. Ce prototype
n’intègre pas encore la totalité de nos propositions. En particulier la formalisation des résultats ne s’appuie
pas sur le formalisme que nous proposons mais sur différents formalismes propres aux services intégrés à la
plateforme. Cela a des incidences sur l’implémentation des propositions d’enrichissement de LDI. Position
et caractéristique sont associées au cas par cas par des "observer" spécifiques. Enfin, les résultats produits
dans des interactions ne sont pas encore stockés en base et il n’est pas possible d’associer une position à
un résultat préalablement obtenu.
Troisième partie

Conclusion et Perspectives

153
Chapitre 12

Conclusion générale

12.1 Bilan
La scénarisation de l’évaluation comme activité à part entière d’une situation pédagogique offre de
nouvelles possibilités.

Cette contribution repense l’opérationnalisation informatique des EIAH en rendant l’expression de l’or-
ganisation mais surtout leur évaluation déclaratives. Il n’est plus nécessaire de mener des développements
itératifs coûteux pour développer l’EIAH [Tch02a]. L’EIAH devient, pour ainsi dire, un fournisseur de
contenus et de services pédagogiques dont les logiques métiers sont régies par les enseignants grâce aux
scénarios. La plateforme de scénarisation est alors "la plate-forme de mutualisation et de capitalisation"
souhaitée par N. Balacheff [Bal01], qui agrège les contenus et services des EIAH.

Cette scénarisation de l’évaluation est aussi possible grâce à un modèle de résultats de haut niveau
qui profile une standardisation des résultats dans le contexte des ENT. Mais encore, ce formalisme de
haut-niveau permet de donner du sens aux résultats qui peuvent être obtenus durant une activité d’ap-
prentissage. Le formalisme de résultats permet ainsi de comparer les dispositifs qui les produisent du
point de vue des performances des apprenants. C’est un apport à la communauté EIAH dans le sens où
il aide à répondre à la problématique de l’évaluation des EIAH soulevée par P. Tchounikine dans [Tch02a].

Mais pour permettre cette scénarisation, nous avons vu que les langages et infrastructures avaient aussi
été étendus et enrichis. Nous avons démontré la faisabilité de cette démarche à travers une proposition
d’architecture et en nous appuyant sur le langage de scénarisation LDL et son infrastructure LDI. L’éva-
luation, grâce à ces innovations, vient s’ajouter tel un nouveau degré de liberté dans la conception des
activités pédagogiques. Tout comme la scénarisation permet de pallier l’absence de possibilité de choisir
et d’organiser une activité pédagogique en EIAH, la scénarisation de l’évaluation permet de spécifier le
paradigme d’évaluation et les outils nécessaires à sa réalisation. Cette approche permet de répondre en
partie au problème soulevé par J-M. Labat [Lab02] de l’absence de visibilité pour l’enseignant de ce qu’il
se déroule durant une activité d’apprentissage au sein d’un EIAH.

Parallèlement, une autre avancée découle de la scénarisation de l’évaluation : celle de la possibilité de


concevoir des activités scénarisées réutilisables et pouvant communiquer entre elles. La vision du scé-
nario monolithique a désormais une alternative qui trouve pleinement son sens du point de vue de la
réutilisation, de la lisibilité, de la plus grande souplesse d’utilisation de ces scénarios. Cette vision de la
scénarisation a comme conséquence une scénarisation dite de "grain fin" qui vise à simplifier au maximum
les scénarios en vue d’optimiser leur réutilisation. C’est une nouvelle manière de concevoir des scénarios
pédagogiques.

Mais la scénarisation de l’évaluation, compte tenu des nombreuses dépendances qu’elle introduit entre

155
156 Chapitre 12. Conclusion générale

les activités et donc entre les scénarios, justifie aussi des approches d’éditeurs de haut niveau tels que
CPM (cf. 5.4.4) ou Collage (cf. 5.4.3) pour la rendre accessible aux praticiens et aux enseignants. C’est à
notre avis ce qu’il manque à cette contribution, en particulier pour mener une expérimentation de taille
importante.

12.2 Perspectives
12.2.1 Perspectives expérimentales
Les grands types d’évaluation sont clairement identifiés dans la littérature (cf. 2.4). Ils constituent
des modèles d’évaluation ou "pattern" permettant aux enseignants de mieux identifier leurs besoins en
évaluation. Avec la possibilité de réutiliser les évaluations scénarisées, il est désormais possible d’aborder
la question de l’évaluation dans les dispositifs de scénarisation sous l’angle de modèles de scénarios d’éva-
luation pouvant s’adapter aux situations d’apprentissage décrites par l’enseignant. Une des perspectives
de ce travail serait donc de décliner un catalogue de "pattern" de scénarios d’évaluation réutilisables. De
la même manière que le propose Collage (cf. 5.4.3), ces "pattern" pourraient être utilisables et adaptés à
l’aide d’un éditeur spécialisé. Cet éditeur devrait être en mesure de gommer les difficultés induites par la
conception d’un scénario et, en particulier, un scénario d’évaluation, c’est-à-dire de rendre transparentes
les dépendances entre scénarios induites par le partage de positions.

Comme expliqué en 11.4, toutes les propositions que nous avons faites n’ont pas encore été implémen-
tées par le prototype. L’amélioration du prototype est donc une priorité pour valider mais aussi pour
permettre de tester par l’usage nos contributions. Une expérimentation pourra alors être menée afin de
vérifier l’architecture proposée. En particulier, nous souhaiterions vérifier que la base eXist puisse sup-
porter le stockage d’un grand nombre de résultats sans altérer les performances de la plateforme.

Une fois les aspects techniques vérifiés et pratiques améliorés par un éditeur de scénario, il restera
à expérimenter le prototype par les usages que pourront en faire des enseignants dans des situations
concrètes.

12.2.2 Perspectives en ingénierie des EIAH


Une autre perspective de ce travail est bien évidemment de proposer la standardisation d’un for-
malisme de résultats s’appuyant sur celui que nous avons construit. Outre la possibilité de devenir un
formalisme pivot au sein de l’ENT, notre formalisme permet d’expliciter les résultats d’évaluation des
apprenants en prenant en compte un ensemble d’informations spécifique aux activités pédagogiques. Ce
formalisme est en ce sens une avancée qui doit désormais, pour avoir un intérêt, être discutée, utilisée,
partagée par les concepteurs des environnements informatiques pour l’apprentissage humain. C’est une
perspective de contribution du point de l’ingénierie des EIAH qui manque pour l’heure d’un formalisme
de résultats commun.

La scénarisation de l’évaluation nous a conduit à adopter une nouvelle vision de la scénarisation des
activités pédagogiques. C’est-à-dire la scénarisation d’activités pédagogiques de "grain fin", qui peuvent
être associées pour décrire des activités plus complexes. C’est une nouvelle approche dans la conception
des scénarios qui complexifie un peu plus cette tâche. En effet, même en utilisant un éditeur, la concep-
tion d’un scénario n’est pas une tâche simple. Les "pattern" de scénario ne permettent pas d’exprimer
toutes les activités. L’élaboration d’un scénario fait bien souvent appel à la créativité du concepteur.
Disposer de méthodes permettant de choisir suivant ses besoins, d’utiliser un seul scénario, des scénarios
de "grain fin", etc. faciliterait sa tâche. Il y a un travail pluridisciplinaire (informatique, didactique, péda-
gogie, etc.) essentiel à réaliser dans l’ingénierie des EIAH sur l’ingénierie de la scénarisation des activités
pédagogiques.
12.3. Apports et perspectives pour l’entreprise 157

12.2.3 Perspectives de recherche


Il est possible d’affirmer que le travail mené dans le cadre de cette thèse a pour ambition de fournir
un ensemble de concepts et d’outils permettant de prescrire des activités coopératives d’apprentissage en
y intégrant les prescriptions relatives à l’évaluation et à l’observation de l’activité pédagogique. Il s’agit
donc bien d’une approche d’"instructional design", par opposition à une approche basée sur l’observation
des performances des sujets et l’interprétation à posteriori de ces performances. Ceci dit, cette approche
pose de nombreux problèmes : puisqu’il s’agit de prescrire, comment élaborer les prescriptions les plus
adaptées aux résultats espérés ? Par exemple, si l’ambition est de permettre à un élève d’améliorer sa
vitesse de lecture, qu’on peut chiffrer en nombre de mots/heure, y a-t-il un moyen d’optimiser le scénario
prescrit ou de l’améliorer en tenant compte des résultats qu’on cherche à atteindre ? La question de
l’élaboration d’une activité en vue d’obtenir un résultat pose de nouveaux problèmes et en particulier celui
de l’évaluation de la conception des activités d’apprentissage. Comment déterminer le meilleur scénario ?
Cette détermination est dépendante de l’apprenant et en particulier des ses capacités. S’interroger sur
cette problématique, c’est aussi se pencher sur les concepts de pédagogie différenciée et sur le désir
d’optimisation de la formation. La mise en oeuvre de ces concepts nous semble être une des attentes les
plus fortes qu’on puisse avoir des EIAH aujourd’hui.

12.3 Apports et perspectives pour l’entreprise


La réflexion sur l’évaluation de l’apprenant s’est nourrie des nombreuses discussions avec les ensei-
gnants auteurs des contenus pédagogiques de l’entreprise Odile Jacob Multimédia. C’est en partie ce
qui nous a aidé à modéliser les résultats d’évaluation. Ce travail de modélisation devrait permettre à
l’entreprise de solutionner le problème du manque de prise en compte par les enseignants des résultats
produits par ses exerciseurs [DR02] [DR03]. Le modèle de résultats ainsi que des interfaces permettant le
dialogue avec un ENT vont être implémentés dans les prochains produits.

En outre, l’étude réalisée, en particulier celle de l’état de l’art en matière de normes et standards, a
contribué à repenser les techniques de création de contenus pédagogiques. Cette réflexion a conduit au
démarrage début 2006 d’un projet RIAM et de deux programmes d’innovation dans le cadre du pôle de
compétitivité Cap Digital67 (anciennement "Image, Multimédia et Vie Numérique"). Dans ces projets,
l’expertise que nous avons faite de l’existant a été réutilisée. Ces programmes devraient déboucher sur la
création de nouveaux outils commerciaux.

Enfin, le travail sur la scénarisation des activités pédagogiques et d’évaluation ouvre d’autres perspectives
d’innovation qui devraient, dans un futur proche, faire l’objet de nouveaux projets basés en partie sur
ce travail. Ces perspectives d’innovation visent à implémenter dans les outils existants des fonctionnali-
tés permettant à l’enseignant de scénariser l’usage des contenus pédagogiques ainsi que l’évaluation des
apprenants.

67 IMVN, http ://image-idf.blogspot.com/


158 Chapitre 12. Conclusion générale
Annexe A

A.1 Schéma XSD du formalisme de résultats


<?xml version="1.0" encoding="UTF-8"?>
<xs:schema xmlns:xs="http://www.w3.org/2001/XMLSchema">
<xs:element name="Acteur">
<xs:complexType>
<xs:sequence>
<xs:element ref="role"/>
<xs:element ref="nom"/>
</xs:sequence>
<xs:attribute name="id" type="xs:NMTOKEN" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="acteursEvalues">
<xs:complexType>
<xs:sequence>
<xs:element ref="Acteur" maxOccurs="unbounded"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Caracteristique">
<xs:complexType>
<xs:sequence>
<xs:element ref="description"/>
<xs:element ref="valeur"/>
</xs:sequence>
<xs:attribute name="type" type="xs:NMTOKEN" use="required"/>
<xs:attribute name="id" type="xs:NMTOKEN" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="possede">
<xs:complexType>
<xs:sequence>
<xs:element ref="Caracteristique" maxOccurs="unbounded"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="evalue">
<xs:complexType>
<xs:sequence>
<xs:element ref="laCaracteristique" maxOccurs="unbounded"/>

159
160 Annexe A.

</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="competence">
<xs:complexType>
<xs:sequence>
<xs:element ref="competence" minOccurs="0" maxOccurs="unbounded"/>
</xs:sequence>
<xs:attribute name="rdceoid" type="xs:string" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="competences">
<xs:complexType>
<xs:sequence>
<xs:element ref="competence"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Critere">
<xs:complexType>
<xs:sequence>
<xs:element ref="description"/>
<xs:element ref="valeur" minOccurs="0"/>
<xs:element ref="bareme" minOccurs="0"/>
</xs:sequence>
<xs:attribute name="id"/>
</xs:complexType>
</xs:element>
<xs:element name="reposeSur">
<xs:complexType>
<xs:sequence>
<xs:element ref="Critere" maxOccurs="unbounded"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="dateTime">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="description">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="EIAH">
<xs:complexType>
<xs:sequence>
<xs:element ref="uri"/>
<xs:element ref="nom"/>
<xs:element ref="version"/>
</xs:sequence>
<xs:attribute name="type" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="Evaluation">
<xs:complexType>
<xs:all>
A.1. Schéma XSD du formalisme de résultats 161

<xs:element ref="methode"/>
<xs:element ref="evalue"/>
<xs:element ref="reposeSur" minOccurs="0"/>
<xs:element ref="realiseePar"/>
</xs:all>
<xs:attribute name="typeEvaluation" type="xs:NMTOKEN" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="laCaracteristique">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="methode">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="nom">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="Produit">
<xs:complexType>
<xs:sequence>
<xs:element ref="uri"/>
<xs:element ref="description"/>
<xs:element ref="possede"/>
<xs:element ref="produitPar" maxOccurs="unbounded"/>
<xs:element ref="EIAH"/>
</xs:sequence>
<xs:attribute name="type" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="Resultat">
<xs:complexType>
<xs:sequence>
<xs:element ref="uri" minOccurs="0"/>
<xs:element ref="dateTime" minOccurs="0"/>
<xs:element ref="description" minOccurs="0"/>
<xs:element ref="session" minOccurs="0"/>
<xs:element ref="acteursEvalues" minOccurs="0"/>
<xs:element ref="Produit" minOccurs="0" maxOccurs="unbounded"/>
<xs:element ref="Evaluation" minOccurs="0"/>
<xs:element ref="competences" minOccurs="0"/>
<xs:element ref="valeurResultat" minOccurs="0"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="role">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="session">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="uri">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="valeur">
162 Annexe A.

<xs:complexType mixed="true">
<xs:attribute name="typeValeur" type="xs:NMTOKEN" use="required"/>
<xs:attribute name="min"/>
<xs:attribute name="max"/>
<xs:attribute name="pas"/>
</xs:complexType>
</xs:element>
<xs:element name="version">
<xs:complexType mixed="true"/>
</xs:element>
<xs:element name="produitPar">
<xs:complexType>
<xs:choice>
<xs:element ref="Acteur"/>
<xs:element ref="acteurEvalue"/>
</xs:choice>
</xs:complexType>
</xs:element>
<xs:element name="acteurEvalue"/>
<xs:element name="realiseePar">
<xs:complexType>
<xs:choice>
<xs:element ref="Acteur"/>
<xs:element ref="acteurEvalue"/>
</xs:choice>
</xs:complexType>
</xs:element>
<xs:element name="bareme">
<xs:complexType mixed="true">
<xs:attribute name="typeValeur" type="xs:NMTOKEN" use="required"/>
<xs:attribute name="min"/>
<xs:attribute name="max"/>
<xs:attribute name="pas"/>
</xs:complexType>
</xs:element>
<xs:element name="valeurResultat">
<xs:complexType>
<xs:sequence>
<xs:element ref="valeur"/>
<xs:element name="seJustifiePar" minOccurs="0">
<xs:complexType>
<xs:sequence>
<xs:element name="Erreur" maxOccurs="unbounded">
<xs:complexType>
<xs:sequence>
<xs:element ref="description"/>
</xs:sequence>
<xs:attribute name="critereref"/>
<xs:attribute name="caractref"/>
</xs:complexType>
</xs:element>
</xs:sequence>
</xs:complexType>
</xs:element>
A.1. Schéma XSD du formalisme de résultats 163

<xs:element name="commentaire" minOccurs="0"/>


</xs:sequence>
</xs:complexType>
</xs:element>
</xs:schema>
164 Annexe A.

A.2 Schéma XSD de LDL étendu pour le traitement du cas d’étude


<?xml version="1.0" encoding="UTF-8"?>
<xs:schema xmlns:xs="http://www.w3.org/2001/XMLSchema">
<xs:element name="Scenario">
<xs:complexType>
<xs:all>
<xs:element ref="metadonnees"/>
<xs:element ref="roles"/>
<xs:element ref="enceintes"/>
<xs:element ref="interactions"/>
<xs:element ref="structures"/>
<xs:element ref="rules"/>
<xs:element ref="positions"/>
</xs:all>
</xs:complexType>
</xs:element>
<xs:element name="action" type="xs:string"/>
<xs:element name="author" type="xs:string"/>
<xs:element name="title" type="xs:string"/>
<xs:element name="uid" type="xs:string"/>
<xs:element name="description" type="xs:string"/>
<xs:element name="goal" type="xs:string"/>
<xs:element name="target" type="xs:string"/>
<xs:element name="laPosition" type="xs:string"/>
<xs:element name="dans" type="xs:string"/>
<xs:element name="de" type="xs:string"/>
<xs:element name="sur" type="xs:string"/>
<xs:element name="interaction_id" type="xs:string"/>
<xs:element name="exprCond" type="xs:string"/>
<xs:element name="param" type="xs:string"/>
<xs:element name="val" type="xs:string"/>
<xs:attribute name="kindOfStructure">
<xs:simpleType>
<xs:restriction base="xs:string">
<xs:enumeration value="selection"/>
<xs:enumeration value="sequence"/>
<xs:enumeration value="all"/>
</xs:restriction>
</xs:simpleType>
</xs:attribute>
<xs:attribute name="kindOfEnceinte">
<xs:simpleType>
<xs:restriction base="xs:string">
<xs:enumeration value="folder"/>
<xs:enumeration value="file"/>
<xs:enumeration value="text"/>
<xs:enumeration value="url"/>
<xs:enumeration value="forum"/>
<xs:enumeration value="chat"/>
<xs:enumeration value="atelier"/>
<xs:enumeration value="method"/>
</xs:restriction>
</xs:simpleType>
A.2. Schéma XSD de LDL étendu pour le traitement du cas d’étude 165

</xs:attribute>
<xs:attribute name="partition">
<xs:simpleType>
<xs:restriction base="xs:string">
<xs:enumeration value="individuelle"/>
<xs:enumeration value="commune"/>
</xs:restriction>
</xs:simpleType>
</xs:attribute>
<xs:element name="valeur">
<xs:complexType mixed="true">
<xs:choice minOccurs="0">
<xs:element ref="Observer"/>
<xs:element ref="UserChoice"/>
<xs:element ref="TimeLimit"/>
<xs:element ref="Float"/>
</xs:choice>
</xs:complexType>
</xs:element>
<xs:element name="metadonnees">
<xs:complexType>
<xs:all>
<xs:element ref="uid" maxOccurs="1" minOccurs="0"/>
<xs:element ref="title"/>
<xs:element ref="description"/>
<xs:element ref="author"/>
<xs:element ref="goal"/>
<xs:element ref="target"/>
</xs:all>
</xs:complexType>
</xs:element>
<xs:element name="comp">
<xs:simpleType>
<xs:restriction base="xs:string">
<xs:enumeration value="equalTo"/>
<xs:enumeration value="notEqualTo"/>
<xs:enumeration value="lessThan"/>
<xs:enumeration value="greaterThan"/>
<xs:enumeration value="lessOrEqualThan"/>
<xs:enumeration value="greaterOrEqualThan"/>
<xs:enumeration value="allEqualTo"/>
<xs:enumeration value="allNotEqualTo"/>
<xs:enumeration value="allLessThan"/>
<xs:enumeration value="allGreaterThan"/>
<xs:enumeration value="allLessOrEqualThan"/>
<xs:enumeration value="allGreaterOrEqualThan"/>
</xs:restriction>
</xs:simpleType>
</xs:element>
<xs:element name="source">
<xs:complexType mixed="true">
<xs:choice minOccurs="0">
<xs:element ref="Observer"/>
<xs:element name="URL" type="xs:string"/>
166 Annexe A.

</xs:choice>
</xs:complexType>
</xs:element>
<xs:element name="UserChoice">
<xs:complexType>
<xs:sequence>
<xs:element name="label" type="xs:string"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="optional"/>
</xs:complexType>
</xs:element>
<xs:element name="TimeLimit">
<xs:complexType>
<xs:sequence>
<xs:element name="delay" type="xs:integer"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="optional"/>
</xs:complexType>
</xs:element>
<xs:element name="Float" type="xs:float"/>
<xs:element name="Condition">
<xs:complexType>
<xs:sequence>
<xs:element ref="laPosition"/>
<xs:element ref="comp"/>
<xs:element ref="val"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="ExprConditionnelle">
<xs:complexType>
<xs:sequence>
<xs:element ref="exprCond"/>
<xs:sequence>
<xs:element maxOccurs="unbounded" ref="Condition"/>
</xs:sequence>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="si">
<xs:complexType>
<xs:sequence>
<xs:element ref="ExprConditionnelle"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="alors">
<xs:complexType>
<xs:sequence>
<xs:element ref="Interaction"/>
</xs:sequence>
</xs:complexType>
</xs:element>
A.2. Schéma XSD de LDL étendu pour le traitement du cas d’étude 167

<xs:element name="sinon">
<xs:complexType>
<xs:sequence>
<xs:element ref="Interaction"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="destinataires">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0"
name="role" type="xs:string"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="destinateurs">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" name="role" type="xs:string"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Enceinte">
<xs:complexType>
<xs:sequence>
<xs:element ref="title"/>
<xs:element ref="description"/>
<xs:element minOccurs="0" ref="source"/>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Enceinte"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="required"/>
<xs:attribute ref="kindOfEnceinte" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="Observer">
<xs:complexType mixed="true">
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="param"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="Position">
<xs:complexType>
<xs:choice maxOccurs="unbounded">
<xs:element ref="title" maxOccurs="1" minOccurs="1"/>
<xs:element maxOccurs="unbounded" minOccurs="1" ref="sur"/>
<xs:element maxOccurs="unbounded" minOccurs="1" ref="de"/>
<xs:element minOccurs="0" maxOccurs="1" ref="portee"/>
<xs:element minOccurs="0" maxOccurs="1" ref="valeur"/>
</xs:choice>
<xs:attribute name="id" type="xs:string" use="required"/>
<xs:attribute ref="partition" use="optional"/>
</xs:complexType>
168 Annexe A.

</xs:element>
<xs:element name="portee">
<xs:simpleType>
<xs:restriction base="xs:string">
<xs:enumeration value="activite"/>
<xs:enumeration value="scenario"/>
<xs:enumeration value="infrastructure"/>
</xs:restriction>
</xs:simpleType>
</xs:element>
<xs:element name="positions">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Position"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="enceintes">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" ref="Enceinte"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Interaction">
<xs:complexType>
<xs:all>
<xs:element ref="action"/>
<xs:element ref="dans"/>
<xs:element ref="destinateurs"/>
<xs:element ref="destinataires"/>
<xs:element ref="results"/>
<xs:element ref="startOn" minOccurs="1" maxOccurs="1"/>
<xs:element ref="terminateOn" minOccurs="1" maxOccurs="1"/>
</xs:all>
<xs:attribute name="id" type="xs:NMTOKEN" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="interactions">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" ref="Interaction"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="result">
<xs:complexType>
<xs:choice>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Enceinte"/>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Position"/>
</xs:choice>
</xs:complexType>
</xs:element>
<xs:element name="results">
A.2. Schéma XSD de LDL étendu pour le traitement du cas d’étude 169

<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="result"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="roles">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Role"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Role">
<xs:complexType>
<xs:sequence>
<xs:element name="title" type="xs:string"/>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Role"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="Rule">
<xs:complexType>
<xs:sequence>
<xs:element ref="si"/>
<xs:element minOccurs="0" ref="alors"/>
<xs:element minOccurs="0" ref="sinon"/>
</xs:sequence>
<xs:attribute name="id" type="xs:string" use="required"/>
</xs:complexType>
</xs:element>
<xs:element name="rules">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" minOccurs="0" ref="Rule"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="terminateOn">
<xs:complexType>
<xs:sequence>
<xs:element minOccurs="0" ref="Rule"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="startOn">
<xs:complexType>
<xs:sequence>
<xs:element minOccurs="0" ref="Rule"/>
</xs:sequence>
</xs:complexType>
</xs:element>
<xs:element name="Structure">
170 Annexe A.

<xs:complexType>
<xs:choice maxOccurs="unbounded">
<xs:element ref="interaction_id"/>
<xs:element ref="Structure"/>
<xs:element ref="startOn" maxOccurs="1" minOccurs="1"/>
<xs:element ref="terminateOn" maxOccurs="1" minOccurs="0"/>
</xs:choice>
<xs:attribute name="id" type="xs:string" use="required"/>
<xs:attribute name="title" type="xs:string" use="optional"/>
<xs:attribute name="numberToSelect" type="xs:integer" use="optional"/>
<xs:attribute name="numberToRepeat" type="xs:integer" use="optional"/>
<xs:attribute ref="kindOfStructure"/>
</xs:complexType>
</xs:element>
<xs:element name="structures">
<xs:complexType>
<xs:sequence>
<xs:element maxOccurs="unbounded" ref="Structure"/>
</xs:sequence>
</xs:complexType>
</xs:element>
</xs:schema>
A.3. Acronymes 171

A.3 Acronymes

Liste des acronymes


ADL Advanced Distributed Learning
AFNOR Association Française de NORmalisation
AICC Aviation Industry Computer-Based Training Committee
API Interface de Programmation d’Application
CAT Computer Adaptive Test(ing)
CMS Content Management System
COW Cooperative Open Workflow
CPM Cooperative Problem-based learning Metamodel
DoD Department of Defense (USA)
DTD Document Type Definition
EAO Enseignement Assisté par Ordinateur
EIAH Environnement Informatique pour l’Apprentissage Humain
ENT Espace Numérique de travail
EML Educational Modelling Language
FOAD Formation Ouverte à Distance
GISMO Graphical Interactive Student Monitoring System
GRE Graduate Record Examination
GUI Graphic User Interface
HTTP Hypertext Transfer Protocol
IEEE Institute of Electrical and Electronics Engineers
IMS Instructional Management System
IMS-CP IMS Content Packaging
IMS-LD IMS Learning Design
IMS-LIP IMS Learner Information Package
IMS-QTI IMS Question and Test Interoperability
IMS-RDCEO IMS Reusable Definition of Competency or Educational Objective
JDBC Java DataBase Connectivity
LAMS Learning Activity Management System
LDI Learning Design Infrastructure
LDL Learning Design Language
LMP Langage de Modélisation Pédagogique
LMS Learning Management system ou SGA en français
LOM Learning Object Metadata
LTSC Learning Technology Standards Committee
MAC Modèle d’Agrégation de Contenu
MDA Model Driven Architecture
MISA Méthode d’Ingénierie d’un Système d’Apprentissage

Tab. A.1 – Les différents acronymes utilisés dans ce document (suite, page suivante)
172 Annexe A.

Liste des acronymes (suite)


MOT Modelling using Object Types
MOT+LD MOT Learning Design
MTSA Modèle de Trace pour la Supervision de l’Apprentissage
MUSETTE Modelling USEs and Tasks for Tracing Experience
OASYS On-line Assessment SYStem
ODBC Open DataBase Connectivity
OGSA Open Grid Services Architecture
OKI Open Knowledge Initiative
OKI-OSID OKI Open Service Interface Definition
OMG Object Management Group
PDM Platform Description Model
PIM Platform Independant Model
QCM Questionnaire à Choix Multiples
RELOAD Reusable e-learning Object Authoring and delivery
RELOAD-LDE RELOAD Learning Design Editor
RELOAD-LDP RELOAD Learning Design Player
SCO Sharable Content Object
SCORM Sharable Content Object Reference Model
SGA Système de gestion de l’apprentissage
SGBD Système de gestion de base de données
SIF School Interoperability Framework
SLeD Servicebased LEarning Design
SOAP Simple Object Access Protocol
SPLACH Support d’une pédagogie de Projet pour l’Apprentissage Collectif Humain
SQI Simple Query Interface
SQL Simple Query Language
TOEFL Test of English as a Foreign Language
URI Uniform Resource Identifier
URL Uniform Resource Locator
UTL Usage Tracking Language
XMI XML Metadata Interchange
XML Extensible Markup Language
XML :DB XML Database
XPATH XML PATH Language
XQuery XML Query Language
XSD XML Schema Description
XSL eXtensible Stylesheet Language
XUpdate XML Update Language
W3C World Wide Web Consortium

Tab. A.2 – Les différents acronymes utilisés dans ce document (suite)


Bibliographie

[ACP79] L. Allal, J. Cardinet, and P. Perrenoud. L’évaluation formative dans un enseignement


différencié. Berne, Lang, 1979.
[ADL04a] Advanced Distributed Learning ADL. Modèle de référence scorm sharable content object
reference model. Technical report, juillet 2004.
[ADL04b] Advanced Distributed Learning ADL. Scorm run-time environment. Technical report,
juillet 2004.
[ADL04c] Advanced Distributed Learning ADL. Scorm sequencing and navigation. Technical report,
juillet 2004.
[ADL04d] Advanced Distributed Learning ADL. Scorm sharable content aggregation model. Tech-
nical report, juillet 2004.
[ALS06] R. Amorim, M. Lama, and E. Sanchez. Modelling and implementation of the astronomy
case study with an ims-ld ontology. In Workshop ICALT06, juillet 2006.
[AS92] R. Auger and S.P. Séguin. Le testing adaptatif avec interprétation critérielle, une expé-
rience de praticabilité du tam pour l’évaluation sommative des apprentissages au québec.
Mesure et évaluation en éducation, 15(1-2) :103–145, 1992.
[ASM03] R.G. Almond, L. Steinberg, and R.J. Mislevy. A four-process architecture for assessment
delivery, with connections to assessment design. Technical Report 616, Center for the
study of Evaluation (CSE), University of California, Los Angeles, décembre 2003.
[Bal01] N. Balacheff. A propos de la recherche sur les environnements informatiques pour l’ap-
prentissage humain. séminaire Cognitique sur les Technologies de l’apprentissage, Poitiers,
2001.
[BBK04] L.K.J. Baartman, T.J. Bastiaens, and P.A. Kirschner. Requirements for competency
assessment programmes. In Onderwijs Research Dagen, 2004.
[BC05a] V. Barré and C. Choquet. Language independent rules for suggesting and formalizing
observed uses in a pedagogical reengineering context. In ICALT 2005, juillet 2005.
[BC05b] V. Barré and C. Choquet. Une aide à la réingénierie d’un scénario pédagogique via la
préconisation et la formalisation d’observables. In EIAH 2005, mai 2005.
[BD05] T. Bratitsis and A. Dimitracopoulou. Data recording and usage interaction analysis in
asynchronous discussions : The d.i.a.s. system. In AIED Workshops (AIED’05), juillet
2005.
[BG01] J. Bezivin and O. Gerbé. Towards a precise definition of the omg/mda framework. In
Automated Software Engineering (ASE’01), novembre 2001.
[Big99] J. Biggs. Teaching for Quality Learning at University. Open University Press/McGraw
Hill Educational, 1999.
[BL05] F. Barbier and P. Laforcade. Cpm : Concepts, techniques and tools for an educational
modeling language. In 4th IEEE International Conference on COGNITIVE INFORMA-
TICS, août 2005.

173
174 Bibliographie

[BLVGVG+ 04] M.L. Bote-Lorenzo, L.M. Vaquero-Gonzalez, G. Vega-Gorgojo, Y. Dimitriadis, J.I.


Asensio-Pérez, E. Gomez-Sanchez, and D. Hernandez-Leo. A tailorable collaborative lear-
ning system that combines ogsa grid services and ims-ld scripting. In 10th International
Workshop on Groupware, juillet 2004.
[Bon86] J.J. Bonniol. L’évaluation ; Approche descriptive ou prescriptive ?, Recherche et forma-
tions. Pour une problématique de l’évaluation formative. Ketele J.,Bruxelles : de Boek,
1986.
[Bul99] J. Bull. Computer-assisted assessment : Impact on higher education institutions. Journal
of Educational Technology and Society, 2(3) :123–126, 1999.
[BW01] A. Bhalerao and A. Ward. Towards electronically assisted peer assessment : A case study.
The Association of Learning Technology Journal ALT-J, 9(1) (2001), 2001.
[Cam97] F. Campanale. Autoévaluation et transformation de pratiques pédagogiques. Mesure et
évaluation en en éducation, 20 :1–24, 1997.
[Cam01] F. Campanale. Quelques éléments fondamentaux sur l’évaluation. Technical report, IUFM
de Grenoble, Cours sur l’évaluation, Janvier 2001.
[CCC+ 04] B. Caron, T. Carron, G. Chaber, C. Courtin, C. Ferraris, C. Martel, J.C. Marty, and
L. Vignollet. L’espace numérique de travail du « cartable électronique. In TICE’04,
octobre 2004.
[CGA+ 88] G. Coquelle, J. Gauche, J.M. Adam, J.P. David, , A. Lacroix, and C. Coquelle. TPElec :
un logiciel de simulations de circuits électriques. EDIL-BELIN, 1988.
[Cha99] P. Chardenet. De l’activité évaluative à l’acted’évaluation. Harmattan, collection Savoir
et Formation, 1999.
[Cho65] N. Chomsky. Aspect of the Theory of Syntax. Cambridge : The MIT Press, 1965.
[Con02] IMS Global Learning Consortium. Ims reusable definition of competency or educatio-
nal objective - best practice and implementation guide, version 1.0 final specification.
Technical report, octobre 2002.
[Con03] IMS Global Learning Consortium. Ims learning design information model final specifica-
tion. Technical report, 2003.
[Con05a] IMS Global Learning Consortium. Ims learner information package specification, version
1.0.1. Technical report, janvier 2005.
[Con05b] IMS Global Learning Consortium. Ims question & test interoperability specification,
version 2.0 final specification. Technical report, janvier 2005.
[Con05c] IMS Global Learning Consortium. Ims question and test interoperability : Results repor-
ting information model, version 1.2. Technical report, janvier 2005.
[Con06a] IMS Global Learning Consortium. Ims content packaging overview. Technical report,
june 2006.
[Con06b] IMS Global Learning Consortium. Ims global learning consortium, inc. Technical report,
janvier 2006.
[Cop04] CopperCore. site officiel de coppercore. Technical report, 2004.
[CPM03] P.A. Champin, Y. Prié, and A. Mille. Musette : Modelling uses and tasks for tracing
experience. In From structured cases to unstructured problem solving episodes, WS 5 of
ICCBR’03, pages 279–286, juin 2003.
[Dal03] J.R. Dalziel. Implementing learning design : The learning activity management system
(lams). In Interact, Integrate, Impact : Proceedings of the 20th Annual Conference of the
Australasian Society for Computers in Learning in Tertiary Education, December 2003.
[Dal06] J.R. Dalziel. Modeling a team-based astronomy task using lams. In Workshop ICALT06,
juillet 2006.
175

[Dav03] J.P. David. Modélisation et production d’objets pédagogiques. Sciences et Techniques


Educatives, Hors série 2003, Ressources numériques, XML et éducation, Hermès, avril
2003.
[DBAR03] E. Delozanne, B.Grugeon, M. Artigue, and J. Rogalski. Modélisation et mise en oeuvre
d’environnements informatiques pour la régulation de l’apprentissage, le cas de l’algèbre
avec le projet lingot. réponse à l’appel à projet cognitique 2002, École et sciences cogni-
tives : Les apprentissages et leurs dysfonctionnements. Technical report, décembre 2003.
[Dem04] M. Demeuse. Introduction aux théories et aux méthodes de la mesure en sciences psycho-
logiques et en sciences de l’éducation. Les Editions de l’Université de Liège, 2004.
[DG04] E. Delozanne and B. Grugeon. Pépites et lingots : des logiciels pour faciliter la régulation
par les enseignants des apprentissages en algèbre. Cahiers Éducation et Devenir, Hors
série, Les TIC à l’école : miracle ou mirage ? :82–92, septembre 2004.
[Dia06] F. Diagne. Mtsa : Un modèle de traces pour la supervision de l’apprentissage. In 6èmes
journées francophones "Extraction et Gestion des Connaissances", janvier 2006.
[Dil03] P. Dillenbourg. Over-scripting CSCL : The risks of blending collaborative learning with
instructional design. In P. Kirschner (ed.). Three worlds of CSCL : Can we support
CSCL. Heerlen : Open University Nederland, 2003.
[dldQ02] Ministère de l’Education du Québec. Direction des ressources didactiques, portfolio sur
support numérique. Technical report, mai 2002.
[DLL+ 05] J.P. David, A. Lejeune, V. Luengo, J.P. Pernin, F. Diagne, J.M. Adam, and C. Choquet.
State of art of tracking and analysing usage. Technical report, Kaleidoscope, rapport du
JEIRP DPULS, avril 2005.
[DLVL06] J.P. David, A. Lejeune, and E. Villiot-Leclercq. Expressing workshop scenario with com-
puter independant model. In Workshop ICALT06, juillet 2006.
[DM06a] G. Durand and C. Martel. Discussion et implémentation dans un dispositif de scénari-
sation, d’une évaluation diagnostique de l’apprenant. In Colloque scénarisation, INRP
2006, mai 2006.
[DM06b] G. Durand and C. Martel. An improved result model for scenarized learning activities.
ADVANCES in ENGINEERING EDUCATION, 2006, july 2006.
[DM06c] G. Durand and C. Martel. A result model for scenarized learning activities. In WSEAS
ENGINEERING EDUCATION 2006, juillet 2006.
[DM06d] G. Durand and C. Martel. To scenarize the assessment of an educational activity. In
EDMEDIA 2006, World Conference on Educational Multimedia, Hypermedia and Tele-
communications, juin 2006.
[DM06e] G. Durand and C. Martel. Vers une scénarisation de l’évaluation en eiah, l’évaluation
comme activité scénarisable dans un dispositif de scénarisation pédagogique. In RJC-
EIAH 2006, 1ere Rencontres Jeunes Chercheurs sur les Environnements Informatiques
pour l’Apprentissage Humain, mai 2006.
[DP00] A. Dufresne and G. Paquette. Exploragraph : A flexible and adaptive interface to support
distance learning. In ED-MEDIA 2000, juin 2000.
[DR02] J. Dinet and J.F. Rouet. Tdmaths : usages, attentes, perceptions ? Technical report,
Laboratoire Langage et Cognition (LACO), CNRS UMR 6096, février 2002.
[DR03] J. Dinet and J.F. Rouet. L’impact de l’utilisation de tdmaths sur les performances en
algèbre, le degré de motivation et la responsabilisation des collégiens. Technical report,
Laboratoire Langage et Cognition (LACO), CNRS UMR 6096, avril 2003.
[DR05] J.P. Dintilhac and I. Rak. Evaluation de la technologie en collège, académie de montpel-
lier. Technical report, juillet 2005.
[Duf06] A. Dufresne. Explor@graph scenarios editor - designing a collaborative task. In Workshop
ICALT06, juillet 2006.
176 Bibliographie

[DV03] G. Durand and L. Vignollet. Améliorer l’engagement sans un collecticiel. In Actes des
quinzièmes journées francophones sur l’Interaction Homme Machine, IHM’03, novembre
2003.
[EB04] C. Eyssautier-Bavay. Le portfolio en éducation, concept et usages. In colloque Tice
Méditerrannée, novembre 2004.
[EZMPP02] E. Egyed-Zsigmond, A. Mille, Y. Prié, and J.M. Pinon. Trèfle : un modèle de traces
d’utilisation. In Ingénierie des Connaissances 2002, février 2002.
[FKNT03] I. Foster, C. Kesselman, J.M. Nick, and S. Tuecke. The Physiology of the Grid. In :
Berman, F., Fox, G. , Hey, A. (eds.) : Grid Computing : Making the Global Infrastructure
a Reality. 2003.
[FLVD05] C. Ferraris, A. Lejeune, L. Vignollet, and J.P. David. Modélisation de scénarios d’ap-
prentissage collaboratif pour la classe. In les actes de la conférence EIAH (EIAH’05),
juin 2005.
[GAP+ 04] V. Gueraud, J.M. Adam, J.P Pernin, G. Calvary, and J.P. David. L’exploitation d’objets
pédagogiques interactifs à distance : le projet formid. STICEF : Sciences et Technologies
de l’information et de la communication pour l’Education et la Formation, 11, 2004.
[GBH+ 84] B.F. Green, R.D. Bock, L. Humphreys, R.L. Linn, and M.D. Reckase. Technical guidelines
for assessing computerized adaptive tests. Journal of Educational Measurement, 21 session
4 :347–360, 1984.
[Geo01] S. George. SPLACH : un environnement informatique support d’une pédagogie par projet.
PhD thesis, Université du Maine, Apprentissage collectif à distance, 2001.
[Geo04] S. George. Analyse automatique de conversations textuelles synchrone d’apprenants pour
la détermination de comportements sociaux. Revue Sciences et technologies de l’infor-
mation et de la communication pour l’éducation et la formation (STICEF), INRP, no.
numéro spécial "technologies et formation à distance", janvier 2004 :165–193, 2004.
[Ger02] F.M. Gerard. L’indispensable subjectivité de l’évaluation. Antipodes, 156 :26–34, 2002.
[Gir06] S. Giraud. Exist. Technical report, Société Pentila, mai 2006.
[Gor03] P. Gorissen. Quickscan qti, usability study of qti for de digitale universiteit. Technical
report, De Digitale Universiteit, Utrecht, the Netherlands, juillet 2003.
[GRDM02] E. Gomez, B. Rubia, Y. Dimitriadis, and A. Martinez. Quest, a telematic tool for auto-
matic management of student questionnaires in educational research. In 2nd European
Conference on Technology, Information, Education Citizenship, juin 2002.
[Gro04] Object Management Group. Unified modeling language specification, uml 2.0, the current
official version. Technical report, octobre 2004.
[Had90] C. Hadji. Evaluation, les règles du jeu. ESF, 1990.
[Had97] C. Hadji. L’Evaluation démystifiée. ESF, 1997.
[HFM04] J.M. Heraud, L. France, and A. Mille. Pixed ; an its that guides students with help of
learners’interactions logs. In ITS’04, septembre 2004.
[HLVFAP06] D. Henandez-Leo, E.D. Villasclaras-Fernandez, and J.I. Asensio-Perez. Tuning ims ld for
implementing a collaborative lifelong learning scenario. In Workshop ICALT06, juillet
2006.
[HLVFJA+ 06] D. Hernandez-Leo, E.D. Villasclaras-Fernandez, I.M. Jorrin-Abellan, J.I. Asensio-Perez,
Y. Dimitriadis, I. Ruiz-Requies, and B. Rubia-Avi. Collage, a collaborative learning
design editor based on patterns. Journal of Educational Technology and Society, vol.9,
no.1, january 2006 :58–71, 2006.
[HMFC05] J.M. Heraud, J.C. Marty, L. France, and T. Carron. Une aide à l’interprétation de traces :
Application à l’amélioration de scénarios pédagogiques. In EIAH’05, mai 2005.
177

[IBC04] S. Iksal, V. Barré, and C. Choquet. Comparing prescribed and observed for the re-
engineering of elearning systems. In IEEE Sixth International Symposium on Multimedia
Software Engineering (MSE), décembre 2004.
[IC05] S. Iksal and C. Choquet. Usage analysis driven by models in a pedagogical context. In
Workshop UALS in AIED 2005, juillet 2005.
[Ini04] Dublin Core Metadata Initiative. Dublin core metadata element set, version 1.1 : Refe-
rence description. Technical report, décembre 2004.
[Jai] A. Jaillet. Vingt-cinq années d’eiah, entretien avec seymour papert. In EIAH 2003, Avril.
[JD00] S. Jean-Daubias. PÉPITE : un système d’assistance au diagnostic de compétences. PhD
thesis, Université du Maine, 2000.
[Juw03] C. Juwah. Using peer assessment to develop skills and capabilities. United States Distance
Learning Association, janvier 2003 :39–50, 2003.
[KMT04] V. Kumar, J. Merriman, and S. Thorne. Final o.k.i. project report for andrew w. mellon
foundation. Technical report, février 2004.
[KSF06] P. Karampiperis, D. Sampson, and D. Fytros. Lifelong competence development : Towards
a common metadata model for competencies description - the case study of europass
language passport. In ICALT 2006, juillet 2006.
[Lab02] J.M. Labat. Quel retour d’informations pour le tuteur ? In les actes de la conférence
TICE 2002, pages 81–88, juillet 2002.
[LNS05] P. Laforcade, T. Nodenot, and C. Sallaberry. Un langage de modélisation pédagogique
basé sur uml. STICEF (Sciences et technologies de l’information et de la communication
pour l’éducation et la formation), 12, Numéro spécial : Conceptions et usages des plates-
formes de formation, 2005.
[Lor80] F.M. Lord. Applications of item response theory to practical testing problems. 1980.
[LP04] A. Lejeune and J.P. Pernin. A taxonomy for scenario-based engineering. In Cognition
and Exploratory Learning in Digital Age (CELDA), pages 249–256, décembre 2004.
[LPP+ 34] H. Laugier, H. Piéron, H. Piéron, E. Toulouse, and D. Weinberg. Etudes docimologiques
sur le perfectionnement des examens et concours. Travail Humain, 1934.
[Mal90] G. Malglaive. Enseigner à des adultes. PUF, 1990.
[Mao98] D. Maor. How does one evaluate students’ participation and interaction in an internet-
based unit ? In Teaching and Learning in Changing Times, actes de la 7eme conférence :
Annual Teaching Learning Forum, pages 176–182, février 1998.
[Mar98] C. Martel. La modélisation des activitées conjointes médiatisées. Rôles, places et positions
des participants. PhD thesis, Université de Savoie, 1998.
[Mar02] C. Martel. Le cartable électronique comme environnement de travail coopératif. Fing,
2002.
[Maz98] R. Mazza. Using information visualisation to facilitate instructors in web-based distance
learning. PhD thesis, Université de Lugano, 1998.
[MFH+ 04] T. Mochizuki, S. Fujitani, S. Hisamatsu, K. Yaegashi, T. Nagata, J. Nakahara, T. Nishi-
mori, M. Suzuki, and H. Kato. i-bee : the cscl assessment tool for making the status of
discussion visible. In ED-MEDIA (World Conference on Educational Multimedia, Hyper-
media and Telecomunication)2004, juin 2004.
[MM05] R. Mazza and C. Milani. Exploring usage analysis in learning systems : Gaining insights
from visualisations. In AIED Workshops (AIED’05), juillet 2005.
[MSB+ 01] R.W. Mislevy, L.S. Steinberg, F.J. Breyer, R.G. Almond, and L. Johnson. Making sense of
data from complex assessments. Technical Report 538, Center for the study of Evaluation
(CSE), University of California, Los Angeles, mars 2001.
[MVF06a] C. Martel, L. Vignollet, and C. Ferraris. Modeling the case study with ldl and implemen-
ting it with ldi. In Workshop ICALT06, juillet 2006.
178 Bibliographie

[MVF+ 06b] C. Martel, L. Vignollet, C. Ferraris, J.P. David, and A. Lejeune. Ldl : An alternative
eml. In ICALT06, juillet 2006.
[MVF+ 06c] C. Martel, L. Vignollet, C. Ferraris, J.P. David, and A. Lejeune. Modeling collaborative
learning activities on e-learning platforms. In ICALT06, juillet 2006.
[MVFD06] C. Martel, L. Vignollet, C. Ferraris, and G. Durand. Ldl : a language to model col-
laborative learning activities. In EDMEDIA 2006, World Conference on Educational
Multimedia, Hypermedia and Telecommunications, juin 2006.
[MY04] A. Merceron and K. Yacef. Train, store, analyse for more adaptive teaching. Technologies
de l’Information et de la Connaissance dans l’Enseignement Supérieur et l’Industrie,
octobre 2004 :52–58, 2004.
[NC78] G. Noizet and J.P. Caverni. Psychologie de l’évaluation scolaire. Paris :PUF, 1978.
[NL06] T. Nodenot and P. Laforcade. Learning from a planete game : Elements of a didactical
transposition described with the cpm language. In Workshop ICALT06, juillet 2006.
[Nod05] T. Nodenot. Contribution à l’ingénierie dirigée par les modèles en eiah : le cas des
situations-problèmes coopératives, habilitation à diriger des recherche en informatique,
2005.
[Not01] W3C Note. Web services description language (wsdl) 1.1. Technical report, The Object-
Web Consortium, mars 2001.
[OD92] A.M. O’Donnell and D.F. Dansereau. Scripted cooperation in student dyads : A method
for analysing and enhancing academic learning and performance. In R. Hertz-Lazarowitz
and N. Miller (Eds.). Interaction in cooperative groups : The theorical anatomy of group
learning. London : Cambridge university Press, 1992.
[oEE02] Institute of Electrical and Electronics Engineers. Draft standard for learning object
metadata. Technical report, juillet 2002.
[PC06] M.P. Poggi-Combaz. L’évaluation scolaire. ressource pédagogique pour la licence sciences
du sport, mention education et motricité de l’université de franche-comté. Technical
report, mise à jour en avril 2006.
[PCA97] G. Paquette, F. Crevier, and C. Aubin. Méthode d’ingénierie d’un système d’apprentis-
sage. Cognito, 8 :37–52, 1997.
[Per97] Ph. Perrenoud. La Pédagogie différenciée. Paris : ESF, 1997.
[Per01] P. Perrenoud. Les trois fonctions de l’évaluation dans une scolarité organisée en cycles.
Educateur, 2 :19–25, 2001.
[Per03] J.P. Pernin. Préciser le concept de scénario pédagogique. In Conférence T.I.C. 2003
(TIC’03), 2003.
[Plé96] R. Pléty. L’apprentissage coopérant. ARCI Presse Universitaire, Lyon, 1996.
[PL06] G. Paquette and M. Léonard. The educational modeling of a collaborative game using
mot+ld. In Workshop ICALT06, juillet 2006.
[PLLC+ 06] G. Paquette, M. Léonard, K. Lundgren-Cayrol, S. Mihaila, and D. Gareau. Learning
design based on graphical knowledge-modeling. Journal of Educational technology and
Society, Special Issue in January 2006, 2006.
[Pos79] N. Postman. Teaching as a Consering Activity. Delacorte, 1979.
[RARG00] M.C. Rolland, L. Arenilla, M.P. Roussel, and B. Gossot. Dictionnaire de pédagogie.
Bordas, 2000.
[RD06a] Reusable eLearning Object Authoring RELOAD and Delivery. Learning design editor.
Technical report, derniere visite juin 2006.
[RD06b] Reusable eLearning Object Authoring RELOAD and Delivery. User guides. Technical
report, derniere visite juin 2006.
179

[Rec04] W3C Recommendation. Extensible markup language (xml) 1.0 (third edition). Technical
report, W3C, février 2004.
[Sch90] D.H. Schunk. Goal setting and self-efficacy during selfregulated learning. Educational
Psychologist, 25(1) :71–86, 1990.
[SDE03] Schéma directeur des espaces numériques de travail. Technical report, mars 2003.
[SIF05] Schools interoperability framework (sif). Technical report, août 2005.
[SNCC05] E. Sander, J.F. Nicaud, H. Chachoua, and M.C. Croset. From usage analysis to automatic
diagnosis : The case of the learning of algebra. In AIED Workshops (AIED’05), juillet
2005.
[SQI04] Simple query interface specification version 1.0 beta. Technical report, avril 2004.
[STY 03]
+
S.Fujitania, T.Mochiduki, Y.Isshiki, Yamauchi, and H.Kato. Development of collabora-
tive learning assessment tool with multivariate analysis applied to electronic discussion
forum. In les actes de la conférence E-Learn2003, pages 200–203, juin 2003.
[Tat06] C. Tattersall. Comparing educational languages on a case study : an approach using ims
learning design. In Workshop ICALT06, juillet 2006.
[Tch02a] P. Tchounikine. Pour une ingénierie des eiah. I3 information, interaction, intelligence,
2(1) :59–95, 2002.
[Tch02b] P. Tchounikine. Quelques éléments sur la conception et l’ingénierie des eiah, dans les
actes du gdr i3. Technical report, 2002.
[Tho20] E.L. Thorndike. A constant error on psychological rating. Journal of Applied Psychology,
IV :25–29, 1920.
[Van03] T. Vantroys. Du langage métier au langage technique, une plate-forme flexible d’exécution
de scénarios pédagogiques. PhD thesis, Université de Lille1, 2003.
[VDF+ 06a] L. Vignollet, J.P. David, C. Ferraris, A. Lejeune, and C. Martel. Comparing educational
modeling languages on a case study. In Workshop ICALT06, juillet 2006.
[VDF+ 06b] L. Vignollet, J.P. David, C. Ferraris, A. Lejeune, and C. Martel. Learning design of
collaborative learning activities : Languages, models, and tools. In Workshop ICALT06,
juillet 2006.
[Ver95] G. Vergnaud. Introduction, dossier : Compétences. Performances Humaines&Techniques,
75 et 76 :7–12, 1995.
[VLD05] E. Villiot-Leclerc and A. Dufresne. Supporting the design of socio constructivist scenarios
with exploragraph. In ED-MEDIA 2005, décembre 2005.
[VMT+ 06] H. Vogten, H. Martens, C. Tattersall, P. van Rosmalen, R. Nadolski, and R. Koper. Inte-
grating ims learning design and ims question and test interoperability using coppercore
service integration. In Learning Networks for Lifelong Competence Development, 2006.
[W3C00] W3C. Simple object access protocol (soap). Technical report, mai 2000.
[Woo01] M. Wooldridge. An Introduction to MultiAgent Systems. John Wiley & Sons, 2001.
[WSJ04] A. Ward, J. Sitthiworachart, and M. Joy. Aspects of web-based peer assessment sys-
tems for teaching and learning computer programming. In Proceedings of the IASTED
International Conference, 16-18 février 2004.
[YKZ03] G. Yang, M. Kifer, and C. Zhao. Flora-2 : A rule-based knowledge representation and
inference infrastructure for the semantic web. In Second International Conference on
ontologies, Databases and Applications of Semantics (ODBASE), novembre 2003.

Vous aimerez peut-être aussi