Personnalisation pour l’apprentissage en environnement numérique, de quoi parle-t-on ?

Quand on parle de personnalisation des apprentissages dans les environnements numériques, nombreux sont ceux qui ne voient que l’affichage d’une information adaptée, ou la recommandation de ressources, en fonction d’informations collectées sur l’apprenant, sur le mode « si vous avez compris ceci, vous voudrez probablement apprendre cela ». De fait la notion de personnalisation est bien plus large que cela et les modalités de personnalisation plus variées. Si elle peut effectivement se décliner sous forme d’aide au choix, elle peut-être vue comme support à la motivation, à l’autonomisation … Cette personnalisation peut s’articuler entre actions humaines et actions gérées par l’informatique.

[Fitzgerald et al. 2017] proposent un framework pour identifier les différentes dimensions/aspects de la personnalisation en environnement numérique d’apprentissage. Ce cadre se décompose en 6 dimensions.

Qu’est ce qui est personnalisé ?

  • Contenu

  • Évaluation

  • Stratégie d’enseignement ou d’apprentissage

  • Choix de l’apprenant

  • Choix de l’enseignant

Types d’apprentissage

  • Formel (obligatoire, primaire, secondaire, supérieur …

  • Non-formel

  • Informel

Caractéristiques personnelles de l’apprenant

  • Démographique (age, …)

  • Connaissances préalables (basé sur des évaluations récentes)

  • auto-évaluation (par l’apprenant ou l’enseignant)

  • Intérêt affiché ou pertinence personnelle

  • Préférences de mode d’apprentissage (en ligne, en groupe, cours du soir …)

  • Niveau d’engagement/motivation et auto-régulation

Qui/quoi réalise la personnalisation

  • Apprenant

  • Enseignant

  • Pair

  • Logiciel/algorithme

Comment s’effectue la personnalisation ?

  • Appariement par nom

  • Description personnelle

  • Segmentation de publication

  • Basé sur les modes cognitifs

  • Personne entière (inclut motivation et émotion)

Impact / bénéficiaires

  • Apprenant

  • Enseignant

  • Concepteur de formations

  • école/institution

  • gouvernemental (local ou national)

  • Entité commerciale (développeur de logiciel, par exemple)

 

[Fitgerald et al. 2017] peuvent ainsi catégoriser divers systèmes, considérer leurs différents niveaux d’action dans le processus d’apprentissage, et proposer des pistes de recherche/amélioration. Sont ainsi déclinés : les systèmes de tuteurs intelligents (ITS) et les hypermedia adaptatifs, les évaluations adaptatives, des systèmes d’apprentissage par investigation, des jeux sérieux ou des livres personnalisés. Les learning analytics sont également invoqués, ce qui permet d’introduire des approches basées sur l’émotion, mais la catégorie semble trop large, ce qui est normal puisqu’il s’agit quasiment d’une discipline, plutôt qu’une classe de systèmes.

[Bejaoui et al. 2017] proposent également un cadre d’analyse de la personnalisation de l’apprentissage, centré sur les MOOC. Il vise à permettre l’analyse de la personnalisation de tels cours. Ils positionnent la personnalisation dans le cadre de la pédagogie ouverte, pour soutenir l’apprenant dans l’autogestion de sa démarche d’apprentissage. Le développement d’un espace personnel d’apprentissage, la mise à disposition d’outils d’auto-diagnostic de ses compétences, de planification du travail, d’e-portfolio sont présentés comme des supports à la personnalisation. Ils postulent qu’une personnalisation faite par l’acteur lui même est de degré plus élevé que si elle est faite par un agent externe (§3.2.1). Focalisé sur un dispositif particulier, ils approfondissent les dimensions internes de la personnalisation du dispositif (ce qui est personnalisé, par qui, de quelle manière).

Ces deux articles permettent de positionner un cadre élargi de la personnalisation dans les environnements numérique d’apprentissage, ou EIAH.

Jutta Treviranus a donné une conférence à Nantes titrée « Smarter sytems include the Margins ». Directrice d’un laboratoire de recherche sur le design inclusif à Toronto, elle nous alerte sur la nécessité de développer des systèmes qui s’adaptent à tous les publics, insistant sur la prise en compte de tous types de différences. Si cela inclut ce que nous appelons handicaps, sa vision est plus large que cela. Par ailleurs, pour elle la personnalisation n’est pas simplement de permettre de trouver la « bonne » ressource ou d’encourager le « bon » comportement, mais au contraire d’encourager la diversité, l’exploration de voies différentes. Rappelons ici que l’un des enjeux de la formation aujourd’hui est d’encourager la créativité et les profils innovants.

32064174106_7961e3faac_b

 

[Bejaoui et al. 2017] Rim BEJAOUI, Gilbert PAQUETTE, Josianne BASQUE et France HENRI, Cadre d’analyse de la personnalisation de l’apprentissage dans les cours en ligne ouverts et massifs (CLOM), Revue STICEF, Volume 24, numéro 2, 2017, DOI:10.23709/sticef.24.2.2, ISSN : 1764-7223, mis en ligne le 24/04/2017, http://sticef.univ-lemans.fr/num/vol2017/24.2.2.bejaoui/24.2.2.bejaoui.htm

[Fitgerald et al. 2017] FitzGerald, E., Kucirkova, N., Jones, A., Cross, S., Ferguson, R., Herodotou, C., … & Scanlon, E. (2018). Dimensions of personalisation in technology‐enhanced learning: A framework and implications for design. British Journal of Educational Technology, 49(1), 165-181. https://onlinelibrary.wiley.com/doi/pdf/10.1111/bjet.12534

Crédits photo :

Publicités

Mon « indigeste » bilan de l’école thématique CNRS « MOOC et EIAH »

Durant 6 jours, une cinquantaine de personnes se sont réunies pour échanger autour des problématiques de fond sur les MOOC. L’ambiance a été particulièrement constructive, et la diversité des participants a donné une grande richesse à tous les échanges informels.

Les thématiques abordées intégraient :

  • Une introduction par George Siemens démontrant en quoi le numérique peut permettre d’activer des capacités latentes de partage de la connaissance
  • Marcel Lebrun nous a proposé de revisité le dispositif pédagogique MOOC au travers de la question de la présence dans l’apprentissage ;
  • Des retours d’expérience de plusieurs pionniers de la création et de l’animation de MOOC dans des contextes très divers : Jean-Marie Gilliot, Rémi Bachelet, Matthieu Nebra, Thierry Curiale. Le questionnement était bien évidemment le lien entre créationde MOOC et recherche et démontre qu’il y a effectivment convergence entre une approche de terrain et la nécessité d’analyser et de développer des outils adaptés.
  • Bruno De Lièvre nous a présenté ses résultats sur le tutorat et propose de qualifier le tutorat de social ou « social tutoring » dans les MOOC, ce qui permet de requalifier les interactions dans ce type de dispositif ; Des premiers outils et modèles d’analyse sous forme de recherche action par Pierre André Caron et Maryline Rosselle. Présentation qui s’est prolongé sous forme d’un atelier ;
  • En termes d’éléments complémentaires :
    • L’annotation de vidéos pour la construction de scénarios au travers d’un atelier animé par Camila Morais Canellas, Olivier Aubert et Yannick Prié ;
    • Une prise en main d’un outil de gestion de traces animé par l’équipe d’Alain Mille
    • Une incursion dans des exemples de dispositifs de réalité virtuelle au travers d’une visite du CERV guidée par Ronan Querrec ;
    • Un atelier sur la génération semi-automatique d’exercices animé par Nathalie Guin et Marie Lefèvre
  • Une introduction aux données d’apprentissage (learning analytics) au travers d’un exposé passionnant de Mathieu D’Aquin, complétée par une approche plus algorithmique présentée par Zachary Pardos ;
  • En prolongement, nous avons abordé les questions de recommandation au travers d’un autre exposé lumineux intitulé « de l’observation aux recommandations » de Mathieu D’Aquin, et d’une table ronde regroupant en plus de Mathieu d’Aquin, Vanda Luengo, Serge Garlatti et Alain Mille ;
  • tous les participants ont également été conviés à échanger au travers d’une séance de posters , et d’un barcamp terminal durant lequel un certain nombre de sujets non explicitement traités ont émergé. Parmi ces thèmes : un groupe a choisi d’approfondir les modèles liés au pilotage, à l’adaptation et à la personnalisation dans une MOOC, un groupe s’est penché sur les jeux d’acteurs et le cadre d’action pour intégrer ses dispositifs dans le système de formation, un autre a abordé le lien entre MOOC et collectif/communauté d’apprentissage, un dernier a questionné la place de la technologie dans la recherche sur l’apprentissage à « l’ère du web ». Le bilan à chaud de l’école a été un dernier temps d’échange très positif.

 

Les différentes productions de l’école ont été capitalisées sur un site ouvert, et incluent supports de présentation, prise de notes collectives et billets de blog. Les différentes interventions ont été retransmises en direct sur le web, relayées sur twitter, et seront également rendues disponibles sur le site dès que possible. Notons que ce site est une instance de Claroline Connect, plateforme de MOOC développée par un consortium incluant l’université de Lyon 1, l’Université Catholique de Louvain la Neuve.

D’un point de vue de l’organisation et de la richesse scientifique, l’organisateur que je suis a été comblé, notamment du fait de la mobilisation des personnes du comité scientifique, du comité d’organisation et de bien d’autres (avec une mention spéciale à l’incontournable Christophe Batier même s’il n’était pas présent avec nous).

Par rapport à mes propres préoccupations, je retiens quelques éléments clés.

Commençons par des éléments de contexte :

  • On a beaucoup parlé de la question de l’éthique, Zachari Pardos nous a ainsi présenté Asilomar, une convention récente sur les données pour la recherche en éducation ;
  • Sur la question des données, nous avons beaucoup insisté sur la nécessité de disposer de données ouvertes. Cette notion inclut non seulement la publication (après anonymisation) , mais la possibilité d’interrogation au travers d’API ouvertes type « linked data » pour les rendre réellement exploitables et interopérables, condition nécessaire pour pouvoir développer des services pertinents. L’Open University est d’ailleurs exemplaire à ce sujet ;
  • Retenons également que le développement de tableaux de bord à tous les niveaux (apprenants, enseignants, institutions…) peut fournir de précieuses informations, pour autant que l’on en fasse des analyses pertinentes (quelques exemples d‘analyses erronnées)
  • L’analyse d’impact de modalités, autour de l’animation notamment, nécessite de pouvoir piloter en parallèle des cohortes distinctes de participants. Il serait donc intéressant de disposer d’une fonctionnalité à inclure dans les plateformes permettant de les piloter indépendamment et de visualiser l’effet du test entre ces cohortes. Cela devient effectivement possible dans des environnements massifs ;

 

Plus fondamentalement, la question de la publication des cartes de connaissance est ressortie assez clairement. Dans les systèmes actuels, l’institution ou des sites de cours peuvent publier des telles cartes (on en trouve sur OpenClassrooms ou Khan Academy) proposant ainsi des menus standardisés (qu’on appelle des formations). Si l’on veut adopter une vue distribuée, permettant à chacun de rendre disponibles ses propres savoirs, on passe à une notion de carte, de graphe de connaissances personnelle (ou Personnal Knowledge Graph). Cette publication, selon George Siemens permet d’activer des connaissances latentes. Activables car visibles. Selon lui, c’est cette visibilité qui permet de développer des nouvelles formes de services participatifs sur le web, comme Uber ou Airbnb, et donne un pouvoir plus important aux utilisateurs. Traduit dans un cours, cette visibilité des connaissances disponibles permet de développer des interactions très différentes de celles basées sur l’hypothèse que seul le prof est détenteur de savoirs. Les médiations se trouvent enrichies , les recommandations deviennent possibles, les interactions entre personnes sont encouragées. Cette notion de graphe (ou carte) de connaissances personnelles permet d’ouvrir de réelles perspectives innovantes. Mathieu D’Aquin nous a ainsi présenté un outil konnektid faisant le lien entre carte de connaissances et carte géographique issu du projet européen linkedup qui va dans ce sens.

Cette approche fait tout à fait écho avec le « social tutoring » pour reprendre la terminologie de Bruno De Lièvre qui tend vers l’idée que les fonctions du tutorat doivent être vues de manière plus horizontales, plus sociales dans un dispositif massif ouvert (un MOOC). Pour aller plus loin, il va être nécessaire de revisiter les différentes fonctions, les différents rôles de l’apprenant et de l’enseignant dans un tel dispositif. C’est ce que l’on constate déjà dans le développement d’équipes d’animation autour d’un MOOC.

Il me semble que l‘architecture Smoople (contraction de Semantic ou Social, MOOC, Pervasive et PLE) sur laquelle nous avons travaillé fournit une bonne base pour la récolte de données nécessaires à la construction de tableaux de bord pertinents et au moissonnage d’informations pour la construction de telles cartes ou graphes de connaissances. Se posent de passionnantes questions sur la maîtrise personnelle de telles données, sur leur visualisation, leur validation et leurs modes de publication d’un point de vue utilisateur final et sur l’exploitation pour accompagner le pilotage de collaborations et d’interactions au sein d’une communauté apprenante.

Bref, nous étions bien dans une école pour chercheurs dans laquelle les échanges ont été particulièrement riches et féconds. Chacun y aura trouvé des points de résonances avec ses propres travaux. En tout cas, j’y ai puisé des axes de travail pour les prochains mois, voire années.

Publié dans MOOC. Étiquettes : , , , , . 4 Comments »
%d blogueurs aiment cette page :