L’impact de l’IA sur l’éducation

L’Intelligence Artificielle est de tous les sujets, l’éducation n’y échappe donc évidemment pas. Cela a donné lieu à des essais très manichéens comme la « guerre des intelligences », mais aussi à des rapports prospectifs plus scientifiques. Citons Intelligence Unleashed proposé par le Knowledge Lab de l’UCL (Londres) en 2017 qui nous rappelle que l’IA en éducation a déjà une longue histoire et qui propose de nombreuses pistes pour résoudre un certain nombre de problèmes en éducation. Citons également le rapport récent d’orientation pour la commission européenne « The Impact of AI on Learning, Teaching, and Education » par Ilkka Tuomi qui reprend des éléments du premier avec une vision plus globale.

Premier point sur lequel il convient de s’arrêter, l’IA est à la fois un vecteur de transformation de la société et du travail, donc qui influe sur les objectifs des formations, et un moyen pour faire évoluer les pratiques d’éducation. Cette idée n’est pas foncièrement neuve, tant cette double tension est portée depuis longtemps par l’évolution des technologies numériques, l’IA n’étant qu’une d’entre elles.

Il y a donc, comme d’habitude, quatre facettes :

  1. En quoi cette nouvelle avancée technologique a un impact sur les compétences numériques (ou littéracie numérique) ? Ces fameuses compétences numériques me semblent évoluer bien vite, et leur définition avoir souvent un train de retard. L’IA pose sans doute de manière plus accrue la question de travailler en interaction avec les technologies numériques ;
  2. En quoi cela modifie l’enseignement de l’informatique ? L’IA telle que revisitée aujourd’hui est une avancée issue de ce que l’on appelait il y a peu les « Big Data ». Notons également que l’enseignement de l’IA dans les écoles d’ingénieurs existe depuis 40 ans.
  3. Quelles sont les questions d’impact soulevées par ces avancées ? En effet, les questions d’impact économique, d’évolution des métiers, d’exploitation de données personnelles, de contrôle, de surveillance, dite généralisée, d’évolution de nos comportements, liées au numérique, sont devenus centrales dans nos sociétés, bien qu’imparfaitement débattues.
  4. Qu’est ce qui devient possible qu’on ne pouvait pas faire avant ?

C’est sur les deux derniers points que se focalisent ces rapports, avec une dimension prospective.

Sur les questions d’impact, deux aspects apparaissent centraux et quelque part liés, la question de la personnalisation d’une part et l’évolution des métiers d’autre part.

La personnalisation est effectivement centrale en IA, en permettant de mettre en place des classifications d’utilisateurs et de faire de la recommandation. Cela est déjà utilisé depuis longtemps en éducation pour des systèmes de tuteurs intelligents, qui pour l’instant sont cantonnés dans des domaines très précis (exercices de mathématiques principalement). Si cela peut aider à proposer des diagnostics, à aider dans une progression, la personnalisation ne doit pas réduire la capacité de choix et d’action des apprenants. C’est toute la question entre guidage et accompagnement qui se pose ici. Les deux coexistent dans une formation et doivent viser à terme à permettre à l’apprenant de développer son autonomie et sa capacité d’action. C’est une crainte très nettement exprimée par Ilkka Tuomi qui fait remarquer que des développements de systèmes pourraient renforcer ce qu’il considère comme étant de mauvaises pratiques de contrôle des apprentissages. Le risque étant selon lui renforcé qu’il existe à la fois des tenants de pratiques dépassées dans le système, et des développeurs de solutions non épaulés par des experts de l’éducation pouvant développer des solutions basées sur des préconceptions issues de l’expérience de ces développeurs.

La question de l’évolution des métiers, du fait de la généralisation de l’IA renforce cette tension, que l’on retrouve dans certains débats publics sur l’évolution de la formation première. En effet l’automatisation prévisible des tâches et le renouvellement des métiers qui y est attachée impose de plus grandes capacités d’analyse, de capacité de jugement, de créativité, d’adaptation des personnes. Cela renforcerait l’importance des matières favorisant ces capacités, qui seraient ce que les américains appellent les « liberal arts », les matières plus littéraires et culturelles. Ces matières doivent néanmoins intégrer le plein usage des outils numériques actuels, on est donc bien dans une démarche de type humanités numériques. Les approches de pédagogies de type « apprendre par la recherche telles que défendues par François Taddéi notamment (voir son dernier livre « Apprendre au XXIème siècle » ou ses nombreuses autres productions sur le sujet).

La question de l’évolution de l’éducation est d’autant plus importante que si l’impact de l’IA sur l’emploi est aussi important que certains le prévoient, et même s’il est moins important que prévu, l’impact au niveau social sera probablement considérable. Et le prix humain correspondant n’est ni souhaitable, ni acceptable, ni sans doute soutenable dans le contexte actuel.

Parmi les possibles qui sont avancés, c’est cette interaction entre humains et IA qui semble centrale :

  • Cette capacité de remplacement sur de nombreuses tâches que possède l’IA pose la question de collaboration entre humain et machine.
  • La capacité d’analyse, voire de tutorat, qui peut s’incarner au travers de robots ou simplement par la voix doit permettre un accompagnement du développement de l’humain. Dans un environnement d’apprentissage, cela doit permettre de l’adapter à l’apprenant. Si le contrôle de l’humain par la machine semble possible dans l’industrie, il est inenvisageable dans une perspective d’éducation.
  • Dans la même veine, la question de l’évaluation peut être complètement repensée, en favorisant l’évaluation formative, et le suivi du développement des compétences.
  • L’intelligence artificielle peut également un support dans le cadre du travail collaboratif, ou en permettant de rendre des environnements virtuels plus interactifs, par exemple en proposant des personnages plus réalistes.
  • L’analyse de données (les learning analytics) peut également s’appuyer sur des techniques d’IA pour proposer des analyses et autres prédictions plus pertinentes pour accompagner enseignants, et décideurs.
  • D’autres types d’analyses peuvent également être envisagées comme le diagnostic de handicaps (autisme, dyslexie …)

Une des questions qui se posent plus précisément dans le cadre de l’IA et de l’éducation est la capacité d’une IA à expliquer, voire à argumenter ses choix, ses propositions. En effet, dans un cadre d’apprentissage, les explications sont indispensables pour que l’apprenant comprenne et accepte une suggestion. Nous avons ici un axes particulier de recherche.

Par rapport aux annonces liées aux technologies précédentes, nous pouvons voir deux différences principales, l’avancée technologique qu’est l’IA ne se décline pas directement par des outils utilisés par le grand public (traitement de textes, moteurs de recherche, montage vidéo, blogs, …) qui peuvent être réinvestis directement en classe. Peut être la traduction automatique, ou la reconnaissance vocale seront ces technologies, mais on est actuellement encore dans une « promesse », plutôt que dans des usages généralisés. Par ailleurs, l’IA se positionne comme aide à l’apprentissage. On parle de libérer l(es)’intelligence(s). Mais pour cela il y a un prérequis qui est la récolte de données d’apprentissage, donc personnelles, d’autant plus personnelles qu’il s’agit de l’analyse de vos capacités, voire de vos émotions.

Une des difficultés majeures pour développer des solutions basées sur des techniques d’IA est en effet de disposer de larges ensembles de données. Pour ne pas enfermer ces ensembles dans des monopoles privés, Ilkka Tuomi suggère que les personnes contribuent volontairement en direction de plateformes dédiées. On pourrait imaginer un projet analogue au projet Common Voice proposé par Mozilla pour développer des assistants vocaux. Une autre approche (sans doute complémentaire) pourrait être de permettre aux apprenants de disposer et de gérer leurs propres données, comme nous l’explorons dans le projet Sedela.

 

Ilkka Tuomi rappelle dans sa conclusion que les concepts fondamentaux à développer en l’éducation sont l’agentivité, la responsabilité, l’identité, la liberté et les capacités humaines, et que l’IA pourrait limiter l’agentivité si développée de manière incorrecte. Quant on voit les développements actuels dans le numérique grand public, on se doit effectivement rappeler ces fondamentaux.

36302593876_a04b74b7e5_z_d

Crédit photo Disenchantment Space / Atsushi Tadokoro (JP) par Ars Electronica licence CC-by-nc-nd

%d blogueurs aiment cette page :