Atelier sur les Environnements d’apprentissage humain orientés Apprentissage Tout au Long de la Vie – appel à communications

Cet atelier d’une demi journée est proposé dans le cadre des Rencontres Jeunes Chercheuses et Chercheurs en EIAH le 4 juin 2024 à Laval (France) pour permettre de mieux appréhender les environnements pouvant soutenir l’apprentissage tout au long de la vie. Il est ouvert à toute personne motivée par ce sujet.

L’annonce originale est à retrouver sur le site du Groupe de Travail « des EIAH centrés apprenants pour l’ATLV » créé fin mars 2019 par l’ATIEF.

Objectif de l’atelier


L’apprentissage tout au long de la vie est à la fois une opportunité et une nécessité.

Une opportunité pour un nombre croissant de personnes : de part la disponibilité croissante de sources de connaissances et de ressources d’apprentissage permettant de développer ses propres compétences, de part le développement d’équipements permettant de mesurer ses propres performances, de part le développement de communautés de pratiques et d’apprentissage. Le champ des possibles s’élargit sans cesse articulant apprentissages formels et informels. Plus récemment, les apprentissages semi-formels gagnent du terrain. Ils révèlent des stratégies actives d’autoformation.

Une nécessité pour les professionnels, soumis à l’injonction de s’adapter continuellement, qui doivent gérer leurs parcours professionnels et trouver leur place dans un écosystème évolutif, transformé par le numérique. L’enjeu est de permettre à chaque travailleur de devenir proactif pour transformer cette nécessité en opportunité personnelle et collective.

De nouveaux enjeux, de nouvelles politiques, de nouvelles pratiques, de nouveaux outils dessinent une grande transition de l’apprentissage tout au long de la vie. Chacun peut être porteur de son projet de vie.

Quelles tendances se dessinent, quels outils sont à développer, quelles recherches sont-elles à mener pour mieux comprendre, accompagner et infléchir cette transition ? Pour préparer au mieux cet événement, nous attendons des propositions de papier de positionnement autour de ces grandes questions. Nous indiquons ci-dessous quelques axes permettant de mieux délimiter la problématique, qui ne sont nullement limitatifs :

  • Quels dispositifs peuvent être développés dans un contexte d’apprentissage tout au long de la vie ? (Jeux sérieux, plateformes d’apprentissage, réalité virtuelle,  …)
  • Quels outils pour faciliter/encourager les pratiques réflexives d’autodétermination, et d’autorégulation dans un cadre professionnel et personnel ?
  • Comment prendre en compte les stratégies proactives d’apprentissage pour expliciter et valoriser les compétences ? (Portfolio, badges, tableaux de bord, validation de compétences …)
  • Quelles opportunités se dessinent-elles avec les nouvelles sources d’informations telles que la “mesure de soi” (quantified self) ?

Toute proposition, sous forme de résumé, contribuant à la compréhension de dispositifs facilitant l’ATLV ou à l’éclairage de la problématique sera la bienvenue.

Comité Scientifique

   Marie-Hélène Abel, Université de Technologie de Compiègne
    Nour El Mawas, Université de Lorraine
    Jean-Marie Gilliot, IMT Atlantique
    Alain Mille, Université Lyon1 + COEXISCIENCE
    Catherine Loisy, Université  de Bretagne occidentale
    Fatiha Tali, Université Toulouse – Jean Jaurès

Dates importantes

Date limite de soumission des communications : 26 avril 2024
Notifications aux auteurs : 10 mai 2024
Date limite pour la réception des textes définitifs : 20 mai 2024
Déroulement de l’atelier, à Laval : 4 juin 2024

Modalités de communications

Nous attendons pour cet atelier des résumés et mots-clés (en Français et Anglais) présentant des résultats de recherche en cours ou aboutis, mais aussi des propositions plus ouvertes. La sélection des articles sera assurée par le comité de programme sur les critères scientifiques habituels. Les soumissions feront entre 1 et 2 pages.

Vos propositions sont à envoyer directement aux organisateurs de l’atelier (nour.el-mawas à univ-lorraine.fr et jm.gilliot à imt-atlantique.fr) .
Les articles soumis devront être anonymes et ne faire aucune référence aux auteurs dans le corps du texte. Aussi, les fichiers PDF contiennent des métadonnées incluant souvent le nom de l’auteur du document ; prenez garde à supprimer ces métadonnées à l’aide de votre logiciel d’édition de fichiers PDF.

Publié dans Non classé. Étiquettes : . Leave a Comment »

Des outils d’IA génératives pour les sciences, vraiment ?

Je propose ici un petit retour d’expérience sur ma participation à une semaine de formation pour découvrir les usages de l’IA Générative pour les sciences. Au travers de ce retour, nous cherchons à partager des réponses aux questions suivantes en trois billets : Quel cadre pédagogique pour tirer parti de cette technologie d’IA Générative ? Comment construire un programme de découverte d’une nouvelle technologie de l’information ?Dans ce troisième billet, nous explorons si cette technologie peut effectivement être utilisée dans un cadre de recherche scientifique ?

Le développement des IA générative a connu un succès grand public sans précédent. Ce développement impacte potentiellement tous les métiers. Dans le cadre d’un cours d’inter-semestre, nous avons exploré la question des pratique de ces IA génératives dans le cadre des sciences. Nos étudiants ont proposé un guide de bonnes pratiques à l’issue de notre semaine commune.

Lors d’une exploration préalable, j’ai pu découvrir l’existence de tout un ensemble d’outils spécifiques pour le chercheur, beaucoup plus diversifiée que ce que laisse penser l’omniprésence des outils conversationnels comme ChatGPT et tous ses concurrents.

Comme l’offre des IAG évolue très vite, il est également intéressant de regarder ces services et outils plus spécialisés, et ce pour 2 raisons. D’abord, parce que dans le cadre de la recherche, ils sont spécifiquement basés sur les articles de recherche comme données d’entrée, ce qui est une garantie dans le processus, sauf quant il s’agit de demander une reformulation plus simple. Ensuite, parce qu’actuellement, c’est la bonne manière de découvrir ce qu’il est possible de faire avec les IAG. La liste proposée ci-dessous émerge d’une exploration de ces outils. Des outils spécialisés, issus d’autres domaines peuvent également mériter qu’on s’y arrête. Deepl, qui d’abord est un outil de traduction (i.e. une IAG spécialisée) propose un outil de type traitement de textes outillé (Deepl Write).

Un point important à préciser d’emblée est que ces outils peuvent fournir les sources de leurs textes, et surligner les extraits de texte concernés. Dans une démarche scientifique, il est en effet indispensable de pouvoir sourcer les informations, de disposer de leur contexte, et de vérifier que ces informations puissent effectivement être réutilisées dans le contexte de recherche.

Je propose donc ici d’abord quelques points d’entrée. Autre point important, l’extraordinaire évolutivité du domaine, entre évolutions incessantes, et annonces fracassantes, fait que (1) cette liste est amenée à évoluer, (2) ce qui n’est pas encore convaincant aujourd’hui peut le devenir rapidement, et (3) la forme d’interaction la plus efficace est encore à trouver, ou au moins à confirmer. Voici donc quelques tâches, qui sont sans doute à compléter, dans lesquelles une IA Générative (IAG) pourra vous aider :

  • L’exploration d’un sujet. Quand on aborde un nouveau sujet, il est souvent difficile de cerner les concepts, les mots clés pour trouver des sources. Un article sur Wikipédia, un article de vulgarisation écrite par un expert constituent de bons points d’entrée. Commencer par des articles scientifiques peut s’avérer ardu. Dans tous les cas, demander à une IAG de reformuler en variant les styles permet de mieux comprendre et de revenir vers des formulations plus scientifiques. Vous pouvez décliner cette approche par concept, question de recherche, hypothèse … Vous pourrez alors explorer les articles de références sur ces sujets, en étant prêts à vous les approprier.
  • Explorer et détailler un article de recherche. Demander un résumé d’un article est particulièrement facile, mais en quoi celui-ci est il plus pertinent que celui proposé par les auteurs et surtout en quoi répond-il à votre question spécifique ? Clairement, ces outils ne proposent pas de remplacer votre expertise, mais de vous accompagner dans votre lecture et vous faire gagner un peu de temps. En fait, on peut aller en profondeur sur un certain nombre de points. Une IAG vous permet de poser de nombreuses questions d’exploration suivant votre point d’intérêt : quels sont les apports de l’article, quelle est la méthode utilisée, la dimension de l’échantillon, … ? Bref, il devient facile d’extraire de l’information spécifique.
    Et comme indiqué précédemment, il est toujours possible de demander une reformulation pour explorer un concept qui vous paraît nouveau.
  • Explorer un corpus. On peut élargir la tâche précédente à un corpus de documents, mais ce n’est pas directement accessible sur les versions d’essai. Cela peut a priori permettre de construire une réponse basée sur les informations dans ces textes, mais il reste à évaluer comment sont gérées les contradictions.
  • Conduire sa revue de littérature. Les nouveaux outils permettent de dépasser une simple recherche par mots clés. Il devient possible de poser une question de recherche et d’obtenir une série d’articles qui s’y rapportent et d’obtenir une synthèse (consensus, elicit, scispace), d’explorer la littérature par graphe de proximité de chercheurs ou de sujets (ResearchRabbit). Certains outils vous promettent des recommandations d’articles en fonction de vos recherches précédents (GoogleScholar) ou en fonction de votre base d’articles (SemanticScholar). Bref, ces outils vous offrent des nouvelles manières de faire des revues de littérature. Il s’agit de combiner ces points de vue, pour vous construire une base d’articles qu’il vous restera à comprendre.
  • Explorer des données. Les outils d’IAG vous permettent d’extraire des données de toutes sortes de sources, y compris d’un tableau dans un pdf. Ils vous permettent également de mettre en forme ces données selon les spécifications de l’outil que vous visez. Je n’ai pas encore investigué ce point là, mais il est clair que c’est une étape toujours chronophage, qui mérite des outils dédiés.
  • Produire du code. Clairement, les IA génératives peuvent rendre de grands services pour aider à créer du code. Pour nombre de codes simples, les propositions des IA génératives peuvent faire gagner beaucoup de temps. Il peut rester une phase de mise au point, mais c’est un usage plébiscité.
  • Organiser son papier. Les plans d’articles scientifiques sont finalement assez classiques. Il n’est donc pas étonnant qu’une IA générative puisse vous faire une première proposition qui permette d’éviter la page blanche, et que vous pourrez affiner, en conversant avec l’IAG, et en ajoutant ce que vous considérez comme important.
  • Écrire son papier. Il ne s’agit pas ici de générer un document automatiquement, mais bien de se faire aider dans son écriture. L’IAG vous permet de reformuler, pour améliorer le style, pour vous permettre de reprendre une idée que vous avez déjà formulé dans un article précédent (pour éviter l’auto plagiat), pour citer correctement une idée issue d’une référence. La traduction est également une option logique en visant un style scientifique.
  • Améliorer son texte. Les IAG peuvent servir de relecteur. Tout comme il est intéressant de faire relire votre papier par un collègue, ou un pair, vous pouvez demander à une IAG d’analyser votre texte, de vérifier votre argumentaire, de regarder si il est possible de mieux présenter une idée. Reprenez les éléments d’exploration d’un article de recherche et appliquez le à votre brouillon.
  • Présenter vos résultats. L’IA générative ne s’arrête pas à la génération de texte, il y a évidemment les illustrations, mais aussi des outils d’aide pour les diaporamas, et bientôt les vidéos.

Pour effectuer toutes ces tâches, il est possible d’utiliser une IAG généraliste comme ChatGPT (avec des résultats bien supérieurs pour la version payante), qui intègre de plus régulièrement les idées développées par d’autres sous forme de plugins variés.

Parmi tous ces outils, certains sont issus de démarche de science ouverte (comme SemanticScholar), alors que d’autres sont au contraire issus d’éditeurs qui ont été décriés, mais qui annoncent assurer une qualité supérieure (voir l’annonce par Springer de l’outil Curie). Notons également que les outils existants ont tendance à proposer leur propre IAG, le dernier que j’ai vu apparaître est l’extension proposée par Writefull pour le bien connu éditeur latex collaboratif Overleaf.

Citons quelques outils parmi ceux que nous avons pu tester :

  • SemanticScholar qui permet de faire des recherches, propose des résumés en une phrase, et met en avant les éléments importants d’un article. Un outil de recherche dans la littérature scientifique ;
  • Consensus qui vous propose sur une question de recherche les articles les plus pertinents, les conclusions de chacun, et une synthèse. Une bonne base pour entamer une exploration, ou au contraire constater qu’un consensus existe déjà ;
  • AskYourPDF qui permet de converser avec un article. Un outil spécialisé, sur une tâche ;
  • SciSpace, est ce qui ressemble le plus à un outil intégré pour la recherche scientifique, en vous permettant de gérer votre bibliothèque de références, de faire une revue de littérature, d’explorer un texte ou un corpus, de citer, paraphraser, de détecter du contenu généré par l’IA générative. Il propose également un cahier de notes, et un plugin pour simplifier du texte ou aller chercher des références, dans un pdf ou sur une page web.
  • AI reviewer, pour avoir un retour sur un article en cours de rédaction.

Dans tous les cas, rappelons quelques éléments de bonnes pratiques :

  • Avant tout, posez vous la question de savoir si votre travail peut être diffusé sur une plateforme externe, qui peut réutiliser ce travail. Ces outils ne vous garantissent pas un niveau de confidentialité absolu ;
  • L’IAG est un assistant pour vous accompagner dans votre travail, un partenaire avec qui échanger, mais pas un outil auquel vous déléguez votre travail ;
  • Interagissez en anglais. Ce conseil ne plaira pas à tout le monde, mais les bases de ressources scientifiques sont majoritairement en anglais. De plus, l’anglais reste la langue pivot de beaucoup d’outils, qui y reviennent naturellement.
  • Décomposez vos étapes, préciser ce que vous voulez, cela vous permettra de construire des prompts précis, pour obtenir des résultats corrects.
    • Réitérez, précisez, interagissez pour raffiner ;
    • N’hésitez par à prendre le contre-pied, en lui demandant ce qu’il a écarté par exemple, ce qu’il manque dans votre proposition …
  • Prenez le temps d’analyser les réponses. Vérifiez les sources. Les réponses des IAG, mais aussi les articles publiés, peuvent comporter des biais. Le texte peut être hors sujet, car issu d’un passage qui parle d’autre chose, ou qui le donne en contre exemple …
  • Dans tous les cas, gardez le contrôle, c’est vous qui êtes responsables de la construction des idées, par les IAG.

En synthèse, l’IAG n’est pas là pour vous remplacer, mais peut effectivement jouer le rôle d’un assistant qui répond à vos questions, qui vous fait des mémos, qui mâche des étapes de votre travail. À vous d’apprendre à travailler avec un assistant, c’est à dire interagir avec lui pour l’amener à faire au mieux de ses possibilités, l’amener à vous remettre en question, bien considérer ce qu’il vous propose et garder le contrôle sur chaque étape, sur chaque conclusion. Si vous le prenez comme tel, vous pourrez aller assez loin.

Crédit photo : Multnomah Whiskey Library Portland Oregon par dog97209 licence CC-by-nc-nd2.0

Publié dans Non classé. Étiquettes : , . 2 Comments »

Découverte de l’IA Générative pour le jeune chercheur

Un déroulé et retour d’expérience d’une semaine de formation

Je propose ici un petit retour d’expérience sur ma participation à une semaine de formation pour découvrir les usages de l’IA Générative pour les sciences. Au travers de ce retour, nous cherchons à partager des réponses aux questions suivantes en trois billets : Quel cadre pédagogique pour tirer parti de cette technologie d’IA Générative ? Comment construire un programme de découverte d’une nouvelle technologie de l’information ? https://tipes.wordpress.com/2024/03/11/des-outils-dia-generatives-pour-les-sciences-vraiment/Est-ce que cette technologie peut être utilisée dans un cadre de recherche scientifique ? Dans ce billet, nous nous intéressons à la construction d’une telle semaine de formation.

J’ai participé à une formation intensive d’une semaine, dite d’inter semestre, d’exploration des usages possibles et pertinents de l’IA générative pour des étudiants de master, en tant que jeunes chercheurs. La formule des inter-semestres permet de faire un pas de coté dans la formation, et de proposer des sujets originaux et des formats pédagogiques plus ouverts. La proposition d’activités dynamiques qui emportent l’adhésion des étudiants fait partie des attendus de cette formule. Cela fait longtemps, que j’aime bien contribuer à ce type de formule (pour la programmation sur mobile ou le web2).

L’objectif de cette formation était donc d’explorer le sujet des Intelligences Artificielles Génératives (IAG) pour les sciences avec un œil critique. Les IAG sont clairement un vecteur de changement potentiellement important dans beaucoup de nos pratiques. La question ici porte sur les pratiques dans le futur métier de nos étudiants.

Pour construire un scénario pédagogiques pertinent, plusieurs dimensions sont donc à combiner :

  • La conduite du changement autour de deux points : (1) pour une appropriation par les personnes, il est indispensable de leur donner un sentiment de contrôle sur les facteurs de changement et donc sur leur apprentissage ; (2) l’adoption d’une nouvelle technologie passe souvent par plusieurs étapes (sur le modèle du cycle de maturité de Gartner), commençant par des attentes très fortes (l’effet waouh très présent avec les IAG), suivies d’une certaine désillusion, puis d’une phase de consolidation. La question pour ce second point est de condenser ce cycle sur une semaine ;
  • La mise en pratique, indispensable pour le sentiment de maîtrise ;
  • L’apport de points de vue complémentaires pour prendre du recul sur la nouvelle technologie ;
  • Le travail collectif pour la mise en débat, le développement d’une approche critique, le croisement des expériences, la dynamique du cours et l’analyse réflexive. Nous avons mis en place un document collaboratif qui a permis une prise de notes partagées, la coordination, l’échange de résultats du travail en petit groupe et individuel.

Un déroulé qui marche bien pour explorer une technologie de rupture est le suivant. Dans un premier temps, l’idée est de commencer par une découverte, puis d’alterner apports d’experts et activités d’appropriation les trois jours suivants. Le dernier jour est dédié à une production finale collective qui est partagée dans la communauté autour du cours (ici un guide de bonnes pratiques proposé à l’ensemble des participants aux différents inter-semestres). Détaillons tout cela.

Le premier jour vise à construire le groupe et à passer la première étape du cycle d’adoption. Il y a donc un temps pour faire connaissance, pour partager les attentes de chacun. Le reste de la journée se passe avec quelqu’un qui peut donner des exemples variés, inspirants, donner des pistes et premières règles d’usages, amener les participantes à des premières pratiques. Cette journée sert à démontrer les possibles et à donner aux participants la confiance suffisante pour démarrer. Un intervenant praticien (souvent extérieur au cadre universitaire) est le meilleur ambassadeur pour aborder cette étape.

Les trois jours suivants sont construits sur un modèle commun : présentation d’experts en matinée, atelier l’après midi et débriefing en fin de journée. Les experts permettent d’apporter de la connaissance avec souvent des aspects pratiques. Le débriefing de fin de journée s’avère essentiel pour bien faire le point sur l’avancée du groupe, les acquis et positionner les différentes activités.

L’atelier de la deuxième journée doit nous permettre de passer l’étape de la désillusion. Les premières mises en pratique doivent permettre d’obtenir des résultats, mais ceux-ci risquent fortement d’être en retrait par rapport aux attentes surdimensionnées des participants. Une analyse réflexive collective permet de faire le point et de réajuster les objectifs et les pratiques.

Dans notre cas, nous avons demandé d’utiliser les IA génératives pour construire une présentation sur un sujet de controverse qu’ils devaient ensuite présenter. Les outils de construction de diaporamas ont permis d’obtenir très rapidement un résultat visuellement attractif. Par contre, les IA génératives ont l’art de ne pas prendre parti. Elles proposent des points pertinents, mais de manière à équilibrer le discours, voire de le rendre le plus neutre possible. De plus, comme nous avions contraint le temps, la présentation arrive très rapidement, et la question de l’appropriation du discours par l’orateur est apparue comme cruciale. En analysant lors du débriefing les limites de l’exercice, les participants ont pu repositionner leurs attentes, mieux comprendre comment dialoguer avec les IA génératives et intégrer la nécessité d’analyser et de s’approprier les résultats.

L’atelier de la troisième journée vise à construire une première solution concrète satisfaisante. Nous avons donc décomposé le processus de rédaction d’un article, et demandé de se positionner sur une étape précise du processus pour explorer des outils d’IA générative dédiés à la recherche, d’en identifier les potentialités, de tester les bonnes manières de les utiliser et de proposer un retour d’expérience. Cela a permis de décomposer différentes étapes et d’affiner les recommandations pour bien interagir avec ces outils.

L’atelier de la quatrième journée a permis de continuer cette appropriation, et de permettre à chacun d’aller à son rythme. Certains ont souhaité aller plus loin dans leur appropriation des outils, d’autres ont ressenti le besoin de faire le point sur les différents apports des experts. Les questions plus controversées des IA ont peu mobilisé, si ce n’est la question de l’impact écologique. Nos étudiants ont ressenti le besoin de travailler individuellement, tout en continuant à produire sur le document collaboratif du cours. La fin de la séance a permis de proposer un premier plan pour le guide de bonnes pratiques pour l’utilisation d’IA génératives en sciences, qui était l’objectif final du cours.

La dernière matinée a permis la rédaction de ce guide sous forme d’un sprint d’écriture. Pour permettre une revue du plan et des idées que les étudiants comptaient intégrer, notre animatrice (Riwalenn Ruault) a proposé plusieurs modalités d’animation : D’abord quelques questions pour mieux préciser la nature du livrable (objectif, public visé, …), un portrait chinois de l’IA générative (et si l’IA était un animal, une fleur, une musique…) et la méthode des chapeaux de Bono, ce qui a poussé à apporter au plan des éléments complémentaires et d’esquisser une cohérence au guide visé. Ces différentes modalités ont permis aux étudiants de prendre du recul sur leur production en un temps record et d’en améliorer notablement le contenu. L’IA générative a permis le lissage de la rédaction pour un résultat impressionnant en 3 heures à 17 participants.

En termes de bilan, les retours de nos étudiants ont été très positifs sur l’approche. Leur positionnement par rapport à la technologie a également évolué tant en termes d’appréciation, d’analyse critique que d’usage.

Pour information, ce cours a été monté dans le cadre d’une semaine d’inter-semestre organisée par IsBlue, une école universitaire de recherche dédiée aux sciences et technologies de la mer. L’interdisciplinarité était du coté des étudiants qui venaient de formations variées, mais aussi de l’équipe pédagogique. La préparation s’est faite avec des chercheurs en sciences physiques et des ingénieurs pédagogiques, et mon apport entre IA générative et pédagogie, qui a permis d’élargir le cadre interdisciplinaire de l’équipe. La maturité préalable des étudiants par rapport à l’approche scientifique a clairement facilité la mise en place de la dynamique du cours et d’aller plus loin dans les échanges. En conclusion, ce type de cours permet des interactions riches avec les étudiants, et un plaisir partagé entre étudiants et intervenants.

Crédit graphique : image générée par les étudiants du cours à l’aide d’une IA générative

Publié dans Non classé. Étiquettes : , . 2 Comments »

L’agentivité comme cadre de réflexion pour l’IA dans la classe

Je propose ici un petit retour d’expérience sur ma participation à une semaine de formation pour découvrir les usages de l’IA Générative pour les sciences. Au travers de ce retour, nous cherchons à partager des réponses aux questions suivantes en trois billets : Quel cadre pédagogique pour tirer parti de cette technologie d’IA Générative ? Comment construire un programme de découverte d’une nouvelle technologie de l’information ? Est-ce que cette technologie peut être utilisée dans un cadre de recherche scientifique ?

Par rapport à l’usage de l’IA Générative (IAG), différentes craintes se font entendre autour de l’idée que l’apprenant puisse se servir de cet outil pour répondre sans avoir à apprendre. Il est donc indispensable qu’une interaction avec une IAG se fasse dans un processus plus large d’appropriation et de réflexion. La réponse d’un tel outil doit être donc soumise à une analyse critique, à une appropriation par l’apprenant et donc à un travail complémentaire d’exploitation et d’intégration. Il est difficile de motiver un étudiant en lui dictant un tel travail, ce travail ne peut s’opérer de manière efficace que s’il peut s’opérer de manière indépendante.

Comme le rappelle Wayne Holmes dans son chapitre IA, AIED et agentivité, l’agentivité est cette capacité d’agir de manière indépendante,en opérant des choix parmi différentes options en fonction de ses croyances, de ses valeurs et de ses objectifs. L’agentivité est cruciale pour le développement personnel et la réussite de l’individu. Je vous invite d’ailleurs à lire ce document, très clair et explicite. Il donne comme exemple : «  la capacité d’agir des élèves peut être accrue quand ils ne sont pas traités comme de simples destinataires de la connaissance, mais comme de véritables acteurs du processus éducatif et quand ils jouissent de l’autonomie nécessaire pour explorer leurs propres domaines d’intérêt, poser des questions, identifier et fixer leurs propres objectifs d’études et s’approprier leur propre apprentissage ». Il rappelle que l’agentivité des enseignants est également importante.

L’IA est souvent déployée comme source de recommandations, de retours instantanés ou de ‘solutions’ proposées, ou comme une source de mesure. Dans ce cas les apprenants perdent l’opportunité de développer une réflexion critique. L’étude de Darvishi, Khosravi, Sadia, Gasevic, et Siemens : Impact of AI assistance on student agency (Impact de l’assistance basée sur l’IA sur l’agentivité des étudiants) conclut au travers d’une expérimentation visant à développer l’autorégulation des apprentissages des étudiants qu’une assistance simple ne permet pas aux étudiants de développer leur autonomie, même si le soutien immédiat est réel et mesurable. L’hypothèse est que les étudiants ne s’approprient pas ces questions dans ce cas. A contrario, des aides explicites et l’incitation à l’échange entre pairs donne des résultats plus encourageants.

Il semble donc indispensable que l’IA soit intégrée comme outil d’aide à penser, plutôt que comme une assistance que comme outil de contrôle ou de prise de décision à votre place. Des démarches de résolution de problèmes, ou de réalisation de projets semblent plus adaptées pour une association de l’IA au travail de l’étudiant.

Dans notre prochain billet, je vous propose un retour d’expérience sur une modalité de découverte de l’IA générative dans la démarche scientifique.

Crédit photo : Images d’Alice, au pays des merveilles – Salle des portes par Bibliothèque des Champs Libres licence CC-by-SA2.0

Publié dans Non classé. Étiquettes : , , . 2 Comments »

Comment aborder la soutenabilité pour le numérique éducatif ?

Je présentais récemment mon habilitation à diriger des recherches, et j’indiquais dans mes perspectives qu’il y a des questions (de recherche) spécifiques aux EIAH. Pour cela, je proposais de prendre comme cadre de référence le donut de Raworth, qui illustre la soutenabilité comme une zone soutenable entre deux types de limites : d’une part, un cercle extérieur qui représente les limites planétaires, et d’autre part un cercle intérieur qui permet de garantir une vie décente pour toute la population mondiale, notamment pour l’éducation.

Quelques jours plus tard, la lettre du CNRS Sciences informatiques proposait un billet de Florence Maraninchi, Quelle recherche en informatique pour un numérique inscrit dans les limites planétaires ? qui se base sur le même cadre. L’idée est de permetrez de prendre du recul par rapport aux promesses liées aux apports du numérique, et de proposer d’analyser le développement de l’informatique entre efficacité et diminution au prisme de l’impact des usages.

Une recherche sur la soutenabilité du numérique éducatif, pourrait donc se positionner dans cette logique, entre sobriété et impact des usages. Reste donc à mener cette exploration au prisme des usages.

Une première piste est celle de l’éducation de qualité prônée par l’UNESCO dont j’ai déjà parlé ici. Une seconde piste, d’après mon analyse (manuscrit à paraître), est de prendre en compte la question de l’ouverture de ces EIAH.

Un EIAH peut en effet contraindre les choix pédagogiques pour l’enseignant, en intégrant dans sa conception un modèle pédagogique. Or, au-delà des contenus liés à la transition écologique et sociétale à intégrer dans les formation, il y a bien un enjeu de transformation de la pédagogie. Nous avons ainsi dans le cadre de l’initiative « Riposte Créative Pédagogique » identifié le souhait des enseignants de s’engager dans la transition, tout en étant garant d’un projet pédagogique visant un changement de la société. Logiquement, la structure d’un EIAH devra en tenir compte, notamment en intégrant des principes de collaboration ouverte et de convivialité (au sens de Illich).

Pour l’apprenant, l’enjeu principal est bien de développer son esprit critique au travers de son libre-arbitre et son pouvoir d’agir. L’ouverture des EIAH, et le caractère capacitant de ces environnements font donc bien partie des questions à examiner pour qualifier des EIAH soutenables.

Une dernière piste à considérer, qui est une suite des deux premières, est la question de la construction des savoirs, de leur émergence, tant il est vrai que les connaissances évoluent et que leur appropriation dans des contextes spécifiques est un véritable enjeu.

Travailler sur un programme de recherche d’EIAH soutenables consiste donc à emprunter une étroite ligne de crête (pour reprendre la formule de Florence Maraninchi) entre les exigences de soutenabilité, au sens respect des limites planétaires, et la nécessité d’une éducation de qualité porteuse de changement de société.

Un donut pour les EIAH, par Jean-Marie Gilliot , inspiré du donut de Raworth

Publié dans Non classé. Leave a Comment »

ChatGPT : un nouveau rapport au savoir pour l’enseignement

ChatGPT est un agent conversationnel grand public qui a des capacités de rédaction d’un niveau d’un étudiant d’université sur à peu près tous les sujets. C’est donc un outil nouveau qui est mis à la disposition de tous, et qui pose de multiples questions, notamment sur l’enseignement et qui donne le sentiment d’une nouvelle crise pour l’enseignement supérieur.

Colin de la Higuera a rédigé un billet qui est celui que j’aurai aimé être capable d’écrire sur la question : L’intelligence artificielle au quotidien : quelle position pour l’enseignant.e ? Je vous invite à le lire, si ce n’est déjà fait, et à revenir ici pour la synthèse et quelques compléments.

En résumé donc, la question n’est pas que ChatGPT, mais bien l’arrivée d’une multiplicité d’outils utilisant les technologies IA qui sont diffusées. Si la question de l’IA n’est pas nouvelle dans l’éducation (voir la traduction par François Bocquet d’un excellent article de référence récent sur le sujet), l’arrivé de ces outils va nous imposer de repenser nos formations. Ces outils seront, ou sont déjà, utilisés dans un cadre professionnel, ils s’imposent donc d’eux mêmes dans un cadre de formation. Il s’agit donc bien de savoir comment apprendre à les utiliser et comment les utiliser pour soutenir les apprentissages. La mise à disposition d’outils puissants peut être une source d’opportunités, ou si ils sont ignorés être vus comme des concurrents indépassables par les étudiants (voir l’exemple de Aicha dans le billet de Colin).

Une premier aspect est celui de l’évaluation et de son pendant la triche, qui pose un vrai problème, tant certains ont constaté que ChatGPT répondait mieux que leurs étudiants que ce soit pour la rédaction ou la programmation même sur des sujets considérés comme compliqués (c’est aussi vrai pour un traducteur en ligne comme deepl pour un exercice de langue). Il existe sans doute d’autres moyens de « tricher » pour d’autres matières.

Un second aspect est d’apprendre (par les enseignants) à utiliser ces outils pour son enseignement, de partager ses expériences et d’analyser (par les chercheurs) les différentes pratiques, et de s’en saisir comme une opportunité. Pour vous en convaincre, vous pouvez consulter cet autre billet écrit par Pascal Vangrunderbeeck Une compréhension critique de ChatGPT.

Retenons également que ces outils sont encore jeunes, et très évolutifs. Des défauts constatés aujourd’hui, autour desquels on pourrait trouver des limites quant à leur capacité de réponse à une évaluation, ou un moyen de créer du débat seront sans doute corrigés à terme, tout comme l’encyclopédie Wikipedia s’améliore constamment.

J’ai eu par ailleurs la chance d’assister à une table ronde sur le sujet, proposé par l’université du Luxembourg Usages pédagogiques de ChatGPT. Sur la question de l’évaluation et du travail à la maison délégué à une IA, si certains trouvaient des limites à ces outils, il s’avère clairement que ces limites ne s’appliquent pas dans tous les cas (j’aurai même tendance à dire pas souvent). Par contre il semble impensable d’interdire tout outil numérique aujourd’hui dans les formations. Le contrôle généralisé, que ce soit par des outils anti-triche ou de surveillance (proctoring) portent sans doute des risques encore plus grands sur nos manières d’enseigner. Il est donc urgent d’attendre pour prendre des décisions et urgent de réfléchir pour s’approprier ces outils et de réfléchir à comment faire pour évoluer (ou évaluer).

Sur les nouvelles pratiques, des premières pistes sont proposées d’aide pour les étudiants, pour les enseignants, pour renforcer l’esprit critique, pour les interactions entre enseignants et étudiants, mais ce ne sont pour l’instant que des premiers pas pour s’approprier et comprendre ces outils. Si la calculette n’a pas supprimé la nécessité d’apprendre les concepts des 4 opérations, mais évite de devoir s’entraîner trop longtemps, la diffusion de la calculette scientifique a modifié la manière de dérouler un cours de maths ou de physique. Sur une calculette les fonctions disponibles sont explicites. Les étudiants les découvrent progressivement, apprennent à les utiliser, et d’autres savoir-faire tirent parti de ces automatisations. La difficulté principale est que les fonctions ne nous paraissent par encore explicites, qu’il nous faut les découvrir, apprendre à les maîtriser et comment en tirer parti. Wikipedia permet aux étudiants de disposer d’une base pour démarrer un travail, de remettre en question un écrit, voire de l’améliorer et permet d’apprendre à citer ses sources, mais il a fallu du temps pour intégrer cela dans les apprentissages.

Deux autres points sont soulevés par ces nouveaux outils qui vont au-delà de l’enseignement et qui posent plus largement la question de la place de l’université dans la société.

Le premier est la construction des savoirs. Comment une IA construit son résultat, sur quelles bases. En quoi son résultat est-il valide ? De nombreux retours montrent que ces outils peuvent donner des résultats faux, voire « délirant » tout en gardant un ton d’autorité qui masque ces défauts. La construction de ces savoirs repose également sur des méthodes très différentes que celles de la construction de sens validés, puisqu’il s’agit d’accumulation de ressources qui se répètent, plutôt que d’analyse. Caroline Muller dans la table ronde semblait avoir des idées là dessus. Elle abordait également la question de la neutralité affichée, qui masque pourtant des choix, et affichait un bel optimisme en disant que le discours universitaire est « un discours de niche » (et donc d’apprendre à construire un discours) alors que ChatGPT relayait « un discours dominant » (basé sur la répétition).

Ces nouveaux outils soulèvent sans doute un autre risque, celui de la marginalisation du discours universitaire (et donc de ses modes de construction). Nous risquons d’affronter une nouvelle forme de discours parallèle, tout comme l’université se retrouve confronté à des discours de doute et d’ignorance organisés pour diffuser des vérités alternatives.

Cela nous amène au second point qui est celui de comment sont construits et validés les savoirs générés par les IA. Car sous une apparence de neutralité, ces IA sont effectivement construites dans un cadre particulier. Certaines ont été retirées car elles intégraient un discours inacceptable (en devenant raciste) de manière trop visible. Les données et autres textes utilisés, ainsi que les ajouts choisis sont également potentiellement porteur de biais (ChatGPT pourra parler d’un docteur et d’une infirmière) qui seront moins apparents. Mais surtout, si Wikipedia a été construit de manière collective avec des valeurs d’universalité constamment discutées, renouvelées et de manière ouverte, ces IA sont au contraire construites par des entreprises privées dont les intérêts sont d’abord financiers (pour ne pas dire de pouvoir), avant que de poursuivre des valeurs humanistes. Il y a par ailleurs la réutilisation de sources en ne respectant pas les droits d’auteur, une collecte de données sauvage, et une construction d’informations basée sur du digital labor. Le risque est ici de la privatisation de la construction du savoir, par des entreprises qui contrôlent déjà souvent les médias de diffusion.

Pour une conclusion partielle, si les médias dominants mettent en avant les triches rendues possibles par ces nouveaux outils dans une forme de déni, j’ai au contraire constaté au travers de mes quelques lectures et de mes rencontres avec mes pairs que l’heure était à l’expérimentation (voir ChatGPT: 9 recommandations), à la réflexion et à la volonté de partage pour avancer ensemble. La riposte à cette crise devra effectivement être collective. Se posera également la question de la construction d’alternatives au mouvement de contrôle des données et maintenant des savoirs.

Crédit photo : Chat par Pittou2 – licence CC-by-nc-2

Publié dans Non classé. Leave a Comment »

Intégrer les enjeux environnementaux dans les cursus informatiques

Nous avons eu la chance lors de l’AG de mon laboratoire de recherche de profiter d’une table ronde sur les questions de « changement climatique », dont les intervenants extérieurs : Olivier Ridoux, Olivier Ragueneau et Ludovic Noblet nous ont apporté des retours d’expérience et des éclairages passionnants. Et dans les références proposées, un article portant le titre de ce billet : « How to Integrate Environmental Challenges in Computing Curricula? » apporte un témoignage particulièrement précieux de multiples retours d’expérience de toute la France et de tous niveaux, par 9 auteurs. Cela permet à la fois d’avoir des idées pour l’enseignement de l’informatique, et également une ébauche de démarche qui pourrait s’appliquer dans d’autres domaines.

Le premier point de ce papier est de proposer une démarche intégrative de ces enjeux en informatique. L’idée ici n’est pas de proposer d’élargir le catalogue de compétences, mais de proposer un corpus de connaissances pouvant s’intégrer dans un curricula. Ce référentiel est disponible en français et a été proposé dans le cadre de EcoInfo. C’est habile, car cela permet de mettre en avant les connaissances à intégrer, pour étendre les savoir-faire métiers. L’article propose également la couverture de ces différents sujets dans une dizaine de cursus. Il sera également intéressant de croiser ce référentiel avec les sujets proposés dans le cadre de la fresque du numérique, qui propose a priori un atelier d’introduction aux mêmes enjeux (en première lecture, la grille d’analyse est proche). En complément, rappelons ici l’approche low-technicisation du numérique qui propose une approche systémique de ces questions, présentée récemment par Stéphane Crozat dans le cadre de l’initiative Riposte Créative Pédagogique.

La deuxième partie de l’article renvoie plus particulièrement à des conseils pédagogiques qui nous rappellent les questionnements sur la posture d’un enseignant traitant ces enjeux dans ses cours, sur laquelle nous reviendrons sûrement. Leurs conseils portent plutôt sur le renforcement du pouvoir d’agir des étudiants et sur la nature des sujets à aborder dans un cadre scientifique rigoureux. En résumé :

  1. Rendre les étudiants actifs : coder, mesurer, ateliers (fresque) ;
  2. Proposer des solutions, y compris par rapport à leur futur professionnel ;
  3. Proposer des sujets qui les concernent ;
  4. Parler des questions politiques – les questions de climat ne sont pas que techniques ;
  5. Faire en sorte que les étudiants se sentent légitimes – ils ont un rôle à jouer – en tant qu’experts techniques et citoyens ;
  6. Rappeler des connaissances scientifiques de base – notamment pour les purs informaticiens (notion de puissance, de loi exponentielle …)

Finalement, l’article aborde également la question de la mobilisation des enseignants. Les enseignants en informatique sont légitimes, parce que habitués aux questions d’interdisciplinarité, parce que le numérique a un impact ubiquitaire, et parce que naturellement ces enseignements évoluent régulièrement. Nos auteurs se posent donc la question de convaincre leurs collègues de l’importance du sujet en les rendant conscients de ces enjeux climatiques, pour qu’ils soient moteurs de l’intégration des connaissances liées aux enjeux climatiques dans leur enseignement (petit merci spécial à mon collègue qui nous a proposé récemment une fresque du numérique).

Pour plus de détails, je vous renvoie à leur papier qui est court et bien écrit. J’en retiens pour ma part de premières idées pour faire évoluer nos enseignements. Si vous même, vous proposez de telles approches, les auteurs de cet article seront intéressés, et l’initiative Riposte Créative Pédagogique sera heureuse de vous aider à les partager.

Crédit photo : Arduino Day Brest – mars 2014 par les Petits Débrouillards – licence CC-by-sa

Publié dans Non classé. Leave a Comment »

Associer les learning analytics et les théories d’apprentissage

L’autorégulation des apprentissages grande gagnante

L’utilisation des learning analytics (ou analyse de données d’apprentissage) peine à se développer au-delà de quelques tableaux de bord dans Moodle. Les learning analytics restent avant tout un domaine de recherche, certes très actif. Coté pratique, les praticiens ne savent pas trop ce qu’il serait intéressant de mesurer, et pourquoi faire, les « informaticiens » peuvent de leur coté proposer de nombreuses visualisations des données récoltées, mais manquent de cadre pour les présenter de manière pertinente.

Du coté de la recherche, le récent article « The use and application of learning theory in learning analytics: a scoping review » revient sur la question d’identifier le contexte dans lequel cette analyse de données se place, avec comme élément principal les théories d’apprentissage dans lesquelles se positionnent les différents travaux en learning analytics. Le cadre de définition retenu dans l’article reste très ouvert, ce qui leur permet d’identifier des cadres très variés et parfois flous. Néanmoins, il est très clair que l’autorégulation des apprentissages (ou SRL Self regulated Learning) est devenu le cadre d’étude privilégié ces dernières années, représentant la moitié des citations en 2020. Cela se vérifiait effectivement encore dans une conférence comme EC-TEL en septembre de cette année.

Les auteurs rappellent que les études en learning analytics se positionnent d’abord et avant tout dans le cadre « behavioriste ». En effet, les traces numériques collectées, formant un comportement observable, sont essentiellement des interactions numériques dans le cadre d’activités d’apprentissage.

Concernant l’autorégulation des apprentissages, les auteurs notent une difficulté à mesurer l’évolution de cette capacité dans la mesure où justement une meilleure maîtrise de traduit par moins d’interactions mesurables. On peut également se demander si le fait de se concentrer sur ce qui est effectivement observable ne peut pas introduire des biais forts dans ce qui est exploité dans les théories mobilisées.

Une question de fond est de savoir si ces mesures permettent de mesurer d’autres éléments consécutifs à l’apprentissage. Si les learning analytics sont bien des analyse de données d’apprentissage, il est indispensable de relier/confronter ces analyses à des théories d’apprentissage, et pas simplement à des analyse de données en tant que données.

L’analyse de apprentissage peut/doit se positionner dans un pluralité de théories d’apprentissage, ce qui offre de nouvelles perspectives d’analyse, et des risques, notamment de maîtrise de ces cadres par les chercheurs. Il faut tout d’abord noter qu’un enseignement mobilise en général différents cadres complémentaires pour accompagner les apprentissages. Par ailleurs, les différentes théories ne se focalisant pas sur les mêmes aspects, différents éléments peuvent être mobilisés pour comprendre les phénomènes observés. La définition d’un cadre théorique pluraliste pour permettre de positionner les approches, et pour ouvrir de nouvelles opportunités semble donc important tant pour l’analyse des apprentissages que pour leur développement.

Crédit photo : Centre de Physique Théorique de l’Ecole polytechnique (CPHT) par « Ecole Polytechnique » – licence CC-by

MOOC ITyPA – 10 ans déjà !

Il y a – déjà – 10 ans, avec Anne-Céline Grolleau, Morgan Magnin, Christine Vaufrey, ouvrions le premier MOOC francophone, ITyPA « Internet Tout y est Pour Apprendre », au moment même où les médias découvraient le phénomène MOOC qui montait depuis début 2012 aux USA.

À l’époque, il y avait deux visions dans les MOOC, celle qui se voulait ouverte, dite collaborative ou connectiviste, un peu sur le modèle de la classe inversée qui est arrivé depuis, et tirer parti du Web comme environnement de collaboration. C’était notre cas, puisque nous voulions au travers de ce MOOC permettre de travailler ensemble sur la manière de travailler dans ce cadre. Un MOOC de démarrage en somme. Le programme s’articulait donc autour de la notion d’Environnement d’Apprentissage Personnel. C’était d’ailleurs la vision initiale des MOOC proposée par George Siemens, Stephen Downes ou Dave Cormier. La vision était celle d’un MOOC comme bien commun.

Les médias et les établissements de l’enseignement supérieur étaient plus intéressés par le storytelling américain proposant d’ouvrir les cours d’universités et plus particulièrement des universités américaines, de toucher le monde entier et d’accueillir les apprenants par centaines de milliers. Dans ce cadre, il s’agissait de transcrire un cours classique avec des vidéos, des quizz, des exercices, un certificat, et un professeur qui passe bien. Moins riche, plus proche des modèles existants, plus facile à suivre, c’est ce modèle qui a été adopté. Et présenté comme une « Révolution ». 10 ans après, les MOOC existent toujours, mais n’ont pas révolutionné l’éducation. Ils ont encore rendu bien des services pendant la période COVID (dite aussi enseignement en situation d’urgence), mais comme un outil parmi d’autres. Ils sont devenus une modalité d’enseignement parmi d’autres. L’ambition d’un enseignement ouvert, collaboratif, voire posé comme bien commun, existe toujours mais reste à la marge du système.

Souvenirs. L’idée de faire un MOOC a été lancée via Twitter au travers de messages en mai 2012, des rencontres rapidement via les premiers systèmes visio, et l’ouverture d’un espace sur Google drive. Le travail se faisait sur le temps libre (Faire un MOOC dans son garage) dans la bonne humeur. Nous avions une impression de facilité. Les personnes que nous sollicitions répondaient rapidement et positivement. Stephen Downes nous a ainsi fait une vidéo et renvoyé le lien quelques heures plus tard. Alors que nous cherchions un système de webinaires permettant de regroupes quelques personnes et de le diffuser en direct, Google sortait son offre gratuite de hangouts qui répondait exactement à ce besoin et que nous avons utilisé intensivement pendant 3 ans. Et surtout, après la première séance du 4 octobre, alors qu’on se demandait comment cela allait se passer (il faut avouer que nous étions un peu stressé ce 4 octobre 2012), on a pu lire les premiers échanges des participants, sentir leur enthousiasme, et les relayer. Enthousiasme, qui s’est maintenu jusque mi décembre, et après puisque certains apprenants ont même créé un espace pour collecter ce qu’il s’était passé pendant ces quelques semaines (voir par exemple le bilan de la saison 2). Et tant de belles rencontres et de discussions passionnantes au cours de ces semaines.

Ce MOOC a connu une seconde saison, durant laquelle Simon Carolan a rejoint l’équipe d’organisation. Puis une troisième saison durant laquelle les 4 initiateurs ont passé le flambeau à une équipe renouvelée d’amis, ce qui de mon point de vue est une des plus belles réussites qu’on puisse imaginer pour un enseignement 🙂

Entre temps, nous sommes passés d’une époque de pionniers qui se connaissaient tous. Je pense à mon collègue Gwendal Simon qui revenant en septembre d’un séjour d’étude en Amérique m’annonçait qu’il se passait un truc extraordinaire aux états-unis, qui a regardé ce qu’on préparait pour ITypa, et qui m’a dit qu’il préférait faire un MOOC classique avec un professeur croisé dans un couloir. Dès février 2013, le premier MOOC sur les réseaux cellulaires démarrait sur une plateforme bricolée, avec des vidéos montées la nuit, Xavier Lagrange en tant que professeur, quelques centaines d’inscrits, et un maximum de satisfaction de la part de Gwendal et Xavier. Rémi Bachelet qui a démarré dès mars 2013 avec son MOOC Gestion de Projet, faisait également partie de mes connaissances.

Après il a fallu de longs mois pour que l’enseignement supérieur s’organise, monte la plateforme FUN (annoncée en octobre 2013), pousse les services pédagogiques a accompagner la création de MOOC, et se pose la question de la finalité de ces cours. Cela nous a pas mal occupé à l’époque, mais pour le coup avec des mandats officiels pour certains d’entre nous.

Et après tout ça. Qu’est ce qui reste dix ans après ? Quels sont les changements de fond dans ces dix dernières années ? Quelles perspectives ?
Et si on se retrouvait en ligne pour en parler ensemble.

Crédit photo : @vainaimoinen https://pxhere.com/fr/photo/1611551 licence CC-0

Conception participative de tableaux de bord d’apprentissage – seconde version

Les tableaux de bord d’apprentissage, ce sont ces tableaux qui vous permettent de visualiser et de comprendre les informations collectées dans les environnements numériques d’apprentissage. C’est la partie visible de l’iceberg des « learning analytics ». Le problème, c’est qu’il est difficile de savoir ce qui sera utile aux utilisateurs (élève, étudiant, professeur, assistant, gestionnaire de formation …) pour pouvoir détecter des problèmes, mieux comprendre ce qui se passe dans les classes, les établissements… et finalement pour exploiter cette compréhension pour améliorer les choses. Une difficulté complémentaire est que nombre de ces potentiels utilisateurs ne se sont même pas posés la question d’utiliser ce genre d’outils. Du coup, l’idée de proposer une démarche de conception participative paraît naturelle.

Fin 2018, nous avions conçu un kit de conception participative, intégrant brainstorming et prototype papier qui avait plutôt bien fonctionné. Il permettait à des groupes de gens d’imaginer et d’exprimer leurs besoins. Depuis, il y a eu la pandémie qui nous a bien ralenti, mais aussi de nombreuses personnes qui ont voulu réutiliser cet outil. Plusieurs d’entre elles ont cherché à le modifier, à l’améliorer, et nous en ont parlé.

Cela nous a amené cette année à organiser un atelier à la conférence EIAH en début d’été, et une journée de travail pour imaginer une version améliorée en octobre qui a réuni 10 personnes (chercheurs en EIAH, designers, ingénieurs pédagogiques, et autres innovateurs pédagogiques). Après cela, nous avons eu un travail de réalisation pour transformer toutes ces idées en kit disponible. Les échanges ont permis de remanier assez profondément le kit, pour encourager les échanges, et pour mieux capter les besoins.

Du prototype à la main
à quelque chose de plus fini

Il ne restait plus qu’à tester…

Dans le cadre du projet incubateur AT41 (De l’Appropriation des outils numériques à la Transformation des pratiques pédagogiques dans le département 41), nous avons pu travailler avec 2 groupes d’enseignants de collège qui nous ont proposé des tableaux pour mieux suivre leurs classes dans leurs pratiques numériques. Certains points ont plutôt bien marché, d’autres les ont laissé indifférents. Mais le résultat est encourageant, car les propositions qu’ils nous ont faites sont originales, et exploitables.

Une proposition de visualisations

Mais si un tel kit permet d’exprimer des besoins et des envies, il faut ensuite traduire cela en tableaux de bord utilisables. Pour l’analyste qui construit le tableau de bord, il est nécessaire de comprendre ce que les participants ont exprimé, de faire des choix lorsque cela n’est pas clair, ou pas réalisable, mais aussi de proposer des solutions complémentaires qui pourraient être plus pertinentes que celles exprimées sous forme de prototype papier. Une seconde phase de conception participative est alors de retravailler avec les participants pour discuter ces choix et ces propositions. Cette deuxième étape a eu lieu hier, 23 novembre 2021. Les participants ont été très intéressés par cet échange, ont pu préciser leurs idées, et réagir aux différents affichages proposés, qu’ils soient une transcription fidèle de leurs idées ou des propositions. Un événement non attendu est qu’à l’arrivée des échanges, les 2 groupes ont eu tendance à proposer une fusion des travaux des deux groupes pour suivre au mieux les pratiques de leurs élèves. Hasard dû à la discussion, ou première émergence de points de vue convergents ? il est trop tôt pour le dire. Bref, la conception et la participation se sont approfondies au travers des ces échanges. Leur question finale était de savoir quelle sera l’étape suivante. Et c’était la meilleure qu’ils pouvaient poser.

Un exemple de prototype de Tableau de bord pour discussion

Pour ceux qui sont intéressés, les différentes versions du kit sont disponibles en ligne, en attendant une publication scientifique. Nos encourageons toutes les personnes intéressées à prendre contact pour échanger, accéder aux sources en attendant que nous les mettions en ligne ….