Nos élèves 2.0 seront les ingénieurs 3.0 (et plus encore)

Our students 2.0 will be the engineers 3.0 (and more)

Nos élèves ont une culture numérique, principalement ancrée dans les réseaux d’amis dans Facebook ou Messenger, mais aussi autour de la musique, des jeux, des téléphones… Nous pouvons les appeler «natifs du numériques » ou élèves 2.0 (pour coller au titre du billet). C’est un constat, une prise en compte de leur acquis, mais cela ne guide pas sur ce qu’il faut leur faire acquérir. Ce qui est m’intéresse ici, c’est qu’il ne faut pas confondre cet état de fait avec l’objectif d’en faire des professionnels demain. Voici donc quelques objectifs à intégrer dans une formation d’élèves 2.0 futurs ingénieurs 3.0.

Par rapport à l’Internet et son utilisation.

Quelques compétences de base transverses à toute formation de niveau master :

  • la digital literacy, qui regroupe compétences de recherche, d’évaluation, d’utilisation et de synthèse d’information numérique, ainsi que la capacité d’exprimer ses idées de manière numérique. C’est assez différent de l’habileté de manipuler des objets techniques, cela passe plutôt par une acquisition d’un esprit critique numérique, qui ne leur est pas naturel ;
  • la capacité à argumenter, agréger, participer à des communautés, voire à les animer. Cela correspond à une vision élargie à la capacité à convaincre et à travailler en groupe.

Ces aspects correspondent en fait à un niveau minimal pour un niveau master, traduit dans l’environnement numérique, conforme à ce qu’on appelle les descripteurs de Dublin au niveau européen. Nous avions d’ailleurs présenté un article autour de cette idée là il y a déjà deux ans.

Intégrer la dimension de l’Internet

Mais, pour un ingénieur, il faut aussi intégrer la compréhension des phénomènes techniques liés à Internet – en termes de dynamique – de grand système, de facteur de convergence. Cela est important car l’intégration de ces dimensions impacte tous les domaines techniques actuels. La convergence, dite NBIC (pour nanotechnologies, les technologies du vivant, la science informatique et les sciences de la cognition). La conférence de Rémi Sussan dans le cadre de l‘intersemestre sur le post-web2 proposé cette semaine par Gwendal Simon en montrait bien les enjeux. Les autres conférences montraient en quoi la virtualisation du monde, couplée à la projection tangible des informations du web dans le monde réel au travers de l’internet des objets (pour faire court) amenait à reconsidérer la perception du monde réel (écouter par exemple le speech que David Orban nous a fait dans Second Life). Par ailleurs, la dimension de l’Internet transforme totalement la dimension de la capacité de calcul, d’acquisition et de traitement de l’information.

Pour le travail des ingénieurs Télécom aussi cela a un impact sur la gestion des données, les architectures et les infrastructures techniques, ainsi que sur la manière de penser l’algorithmique.

De manière générale, cette dimension nouvelle des problèmes d’ingénierie, cette complexification des systèmes encourage à conserver un volet d’expertise scientifique et technique dans la formation.

Quels enjeux de vie auxquels nos élèves auront à faire face ?

La vie n’est pas un long fleuve tranquille. Internet est un vecteur important de changement, il est d’ailleurs en perpétuelle évolution (en passant, avez vous remarqué que les évolutions de l’électronique ne se mesurent plus en puissance de calcul, mais en niveau d’intégration dans Internet et en débit), tant dans ses capacités, que dans sa sphère d’influence. Cela amène au niveau de l’activité à des dynamiques inconnues, qui nécessitent donc de l’adaptativité. Celle-ci ne peut s’obtenir que s’ils ont confiance en eux, qu’ils aient une motivation suffisante. Par ailleurs, il y a une nécessité d’éthique renforcée, liée au fait que les systèmes technique impactent de manière renforcée des enjeux de pouvoir, de démocratie, les enjeux liés à la vie de la planète entière et de ses habitants. En bref il faut acquérir une conscience des choix de société qui sont devant nous (dans quel meilleur des mondes vivront nous ?)

Quels défis les attendent ?

De manière évidente, dans les 40 ou 50 ans à venir, ils auront à gérer des systèmes intégrant les composantes des NBIC, à imaginer les usages, et à développer les applications qui y seront liées. Mais cette intégration se fera avec un objectif qui va devenir de plus en plus prioritaire : le développement durable dans ses trois composantes : sociale, écologique et économique.

Prospectif ? Peut-être, mais tellement vital pour notre société, comme le rappelle Bruce Sterling.

PS1 : au départ, je suis parti juste du titre proposé dans un billet twitter, que j’ai eu envie de reprendre. Le reste vient en fin de « semaine prospective » de manière un peu courte ou abrupte. Certaines parties peuvent nécessiter un discours un peu plus long. Prêt à en discuter avec qui voudra…

PS2 : je n’ai pas intégré grand chose de la journée « internet du futur » qui se concentrait plus sur une problématique accès aux données, architecture du réseau lui-même avec le débat liberté versus contrôle nécessaire, qui me parait tellement biaisé, bien que sans doute vital pour l’avenir.

Une semaine prospective Internet à Télécom Bretagne

Certaines semaines font particulièrement apprécier de travailler dans des établissements comme Télécom Bretagne. La semaine qui démarre devrait en être un exemple parfait. Au programme un cours d’intersemestre, dite Post-Web2, comme on n’en trouve nulle part ailleurs et une retransmission de la conférence « Quel futur pour l’Internet ? » en amphi !

Le cours d’intersemestre est une spécialité brestoise qui consiste à proposer sur une semaine un ensemble de cours sur des thèmes qui paraissent intéressants ou qui tiennent au cœur des enseignants -chercheurs de l’école. Cela va du théâtre au nanotechnologies en passant par le leadership, le design, ou le secours en montagne, etc. Bref, il y en a pour tous les goûts, et l’objectif est bien d’élargir la culture de nos élèves ingénieurs.

Dans ce cadre, @gwendal Simon nous concocte depuis quelques années un cours autour du Web2. Mais contrairement aux autres cours sur le sujet, la prise de recul par rapport aux technologies est importante, puisque son approche est de faire intervenir des experts qui donnent leur vue sur l’évolution des usages et des possibilités offertes par l’Internet moderne. Cette année, le thème est le « post-web2 ». L’idée est donc de dépasser l’exploration habituelle du web communautaire, collaboratif, pour aller encore plus loin.

Ainsi, les deux moments forts de cette année seront les présentations de Rémi Sussan et Hugobiwan.

  • Rémi Sussan, va nous éclairer sur la société numérique avec la vision prospective qu’on lui connait sur InternetActu, entre post-humanisme et science-fiction.
  • Hugues Aubin nous accueillera sur Second Life pour nous parler de réalité mixte, d’hommes et territoires augmentés. Il semble qu’il ait réussi à convaincre plusieurs autres participants (d’après ses derniers tweets, on compterait sur @loichay @richwhite @dr_manhattan @davidorban @yannleroux @yannleguennec, si vous ne savez pas qui ils sont, je vous le laisse découvrir et … les suivre sur twitter).

N’oublions pas non plus la présentation de Cécile Bothorel (@CecileBothorel), une collègue experte dans l’analyse des réseaux sociaux.

L’aspect pratique n’est malgré tout pas oublié. Les élèves auront comme objectif de tenir un stand dans un exploriou camp, version locale des explorcamps, dans laquelle ils présenteront à toutes les personnes présentes sur le campus un thème qui a retenu leur attention. Pour cela, ils disposeront des après midi pour faire leurs recherches, leurs essais d’outils, et préparer leur argumentaire. Ma participation à ce cours se cantonnera d’ailleurs à participer à l’animation de cet aspect du cours.

Ce cours devrait non seulement remplir d’aise les geeks modernes, mais toutes les personnes un peu intéressées par la prospective dans le domaine des usages de l’Internet. En effet ces cours, et l’exploriou camp sont ouverts à tous ceux qui sont intéressés. N’hésitez pas à prendre contact.

Quel futur pour l’Internet est une conférence multi-site avec Vinton Cerf, Bob Kahn et Louis Pouzin, autrement dit les figures historiques de l’Internet qui ont une compréhension du phénomène et une vision qui méritent sans contexte qu’on les écoute. Leur intervention sera suivie de quelques autres pointures nationales, d’après le programme :

  • Jean-François C. Morfin, dit « Jefsey », Chair de l’IUCG@IETF qui nous parlera du travail engagé vers l’Intersem (l’internet des pensées).
  • Michel Riguidel, professeur émérite de Télécom ParisTech qui nous présentera de l’Internet polymorphe.
  • Michel Charron, directeur des opérations, Amesis qui évoquera la sécurité à l’horizon 2015, 2020 …
  • Nicolas Arpagian, rédacteur en Chef de la revue Prospective Stratégique, sur le thème : Une cyberguerre est-elle possible ? probable ?
  • Joao Schwarz Da Silva, Commission Européenne : l’Internet du futur, ce qu’en pense l’Europ.

Bref quelques beaux sujets de réflexion. La conférence est ouverte à tous et les inscriptions gratuites sont à indiquer à l’AFEIT pour Brest.

En tout cas, l’objectif d’ouvrir les esprits devrait être atteint, et pas seulement pour les élèves.

ean-François C. MORFIN, dit « Jefsey », Chair de l’IUCG@IETF qui nous parlera du travail engagé vers l’Intersem (l’internet des pensées).

Michel RIGUIDEL, professeur émérite de Télécom ParisTech qui nous présentera de l’Internet polymorphe.

Michel CHARRON, directeur des opérations, Amesis qui évoquera la sécurité à l’horizon 2015, 2020 …

Nicolas ARPAGIAN, rédacteur en Chef de la revue Prospective Stratégique, sur le thème : Une cyberguerre est-elle possible ? probable ?

Joao SCHWARZ DA SILVA

Apprendre via les Objets

L’Internet des Objets nous promet de pouvoir accéder aux données liées à un objet. L’idée de ce billet est d’envisager comment utiliser ce nouveau lien entre le réel et les données pour susciter une découverte des technologies et des sciences.

Ou comment Redonner le goût aux sciences…

Bruce Sterling nous parle de l’Internet des Objets comme d’un moyen de repenser le monde. L’accès aux informations permet d’accéder à la conception d’un objet, de connaître sa vie. Il en déduit une foule de comportements qui deviennent possible : changer son usage, le faire évoluer, améliorer son empreinte, être au courant de son impact environnemental. Il reste à envisager cet objet comme moyen, ou au moins comme prétexte à apprendre.

Si l’on se place du goût de la découverte des technologies et des sciences, l’idée est que l’on peut via un objet chercher à comprendre comment il est fait, et aussi comment il s’intègre dans son environnement physique et technologique.

Si l’on considère que les plans qui ont conduit à sa conception sont disponibles, il devient possible de proposer ces informations à quelqu’un qui veut comprendre comment l’objet a été conçu ou fabriqué. Il est alors possible de parcourir ces plans pour comprendre quels sont ces composants, qu’ils soient physiques, intégrés ou logiciels. Sa construction redevient lisible !

Ainsi quand je suis face à un objet et que je me demande comment il fonctionne, il suffit de l’interroger pour pouvoir accéder à son fonctionnement interne. Il est ainsi possible de commencer à susciter ma curiosité au moment où je suis prêt à être intéressé.

Ce parcours peut évidemment s’adapter à différents critères : mon âge, mon niveau de connaissances, mon envie d’approfondissement, mes intérêts actuels (je peux m’intéresser actuellement à la découverte de l’électronique, à l’impact environnemental des objets, à l’histoire des sciences …). Il y a là de la matière pour tous les niveaux d’apprentissage. Pour faire une analogie avec le travail d’un collègue : chaque objet devient un musée virtuel dont il est possible de choisir un parcours.

Pour prendre une autre analogie, un certain nombre d’ingénieurs avouent en privé être venus à ce métier par un goût du démontage des objets qui les entouraient du temps de leur enfance. Qui de se souvenir d’une boite de vitesse, de son solex, d’une radio … Les avancées technologiques ont été suffisamment importantes pour que la technologie deviennent invisibles, et tous les objets qui nous entourent indémontables. De la à expliquer le moindre intérêt des jeunes pour la technologie, il n’y a qu’un pas. Cet accès aux plans de l’objet peut le rendre à nouveau « démontable », au moins virtuellement.

Dans cette perspective, l’Internet des objets peut devenir un moyen de comprendre le monde.

Moi cette perspective me branche assez, et vous, qu’en pensez-vous ?

Internet du Futur

Dans le cadre d’une réflexion sur l’Internet du futur proposée par le gouvernement, mon laboratoire se penchera sur le sujet au cours de son prochain séminaire. Cette réflexion semble déjà bien engagée si l’on consulte un peu le questionnaire et son document d’accompagnement. On peut d’ailleurs légitimement se demander à qui s’adresse la consultation publique vu le genre de questions posées (Présentez les équipes et moyens que vous dédiez (ou pensez dédier à court et moyen terme) à chacun des thèmes liés à l’Internet du Futur et compléter autant que de besoin le tableau présent à l’Annexe 1. Quels sont, pour votre entité, les thèmes prioritaires ? ou Quelle part consacrez-vous à la recherche incrémentale et à la recherche disruptive sur ce sujet ?). Il serait sympathique de le préciser …. en tout cas ce ne semble pas être dédié au citoyen de base, ni même au chercheur de base.

Bon, malgré tout je peux répondre à la question 1. La suite se fera à un niveau plus haut que le mien. Allons-y en vue de ce prochain séminaire :

A l’horizon 2015-2020, quels sont les principaux nouveaux services, usages et applications qui viendront redéfinir le fonctionnement et l’utilisation de l’Internet dans vos domaines d’activité ?

Une intégration de la dimension numérique (données actuelles et du cycle de vie) dans les objets du quotidien (internet des objets) couplée avec une généralisation de la gestion des liens entre entités et information (web sémantique) introduit une version intégralement distribué des l’information (pair à pair). Une généralisation de l’accès et de la production d’information

Cette extension va amplifier la possibilité de mieux comprendre notre environnement et comment développer de nouveaux systèmes, de collaborer et d’apprendre !

en tant qu’enseignant en école d’ingénieurs, cela va changer notre manière d’aborder le monde et la formation.

Quel peut-être l’impact économique de ces évolutions ?

Comme le souligne le site de préparation d’Autrans 2010, entre autres : il va être nécessaire de redéfinir totalement les modèles économiques. Cela est par ailleurs indispensable pour pouvoir repenser notre rapport au monde et donc pouvoir répondre aux défis du développement durable.

Quelles opportunités et quels risques anticipez-vous dans le cadre de vos activités ?

Opportunités : pouvoir permettre une meilleure appropriation de notre environnement qui permette une revalorisation intellectuelle du métier d’ingénieur. Permettre un engagement de nos élèves dans leur formation et dans leur compréhension des problèmes.

Risques : un éclatement des institutions d’enseignement et du rôle de l’enseignant, diluant et réduisant l’accompagnement à la maturité intellectuelle des jeunes. Ce risque est d’autant plus important que l’éducation nationale (dont je ne fais pas partie) ne s’approprie que trop peu Internet et qu’au contraire elle se sanctuarise.

Dans ce contexte, quels facteurs auront le plus d’impact dans la redéfinition de l’Internet et de son architecture ?

L’important est de permettre un accès le plus libre et le plus transparent possible aux données pour permettre la formation, l’appropriation et l’amélioration de tous les champs de connaissance.

Quelles éventuelles nouvelles formes celle-ci peut-elle prendre ? Quels sont les verrous à lever ?

Celle-ci se rapporte à quoi : architecture ? Les 2 extrèmes sont Pair à pair ou centralisée.  Le risque est de tendre vers le pôle centralisé, l’opportunité est de tendre vers la plus grande répartition possible

Verrous à lever :

  • la confusion entre pirate (usage) et technique (partage et lien entre ordinateurs) : cela au niveau juridique et par ricochet au niveau opérateur
  • l’autonomie des équipements (adaptation dynamique, reconfiguration ,évolution …)
  • la rapidité d’accès à l’information
  • la gestion de la redondance et la synchronisation
  • l’interopérabilité


Internet des objets social pour Digital Pre-natives

Une vidéo à voir:

Les vidéos Vodpod ne sont plus disponibles.

(vu sur Twitter : Aussi pour suivre… les coups de pieds de bébé)

L’application peut être considérée comme plus qu’anecdotique. N’empêche …

Elle est emblématique !

Combiner l’Internet des objets et le web social, et en plus permettre d’aller encore plus loin sur l’appropriation des technologies par les jeunes : après les Digital Natives, les Digital Pre-Natives !

grâce à un twit dont je ne retrouve plus la trace …

pour Théo !

Internet des Objets

Daniel Kaplan en parle enfin dans son 3ème opus sur le sujet :

Repenser l’internet des objets (3/3) : Industrialiser l’internet ou internetiser l’industrie ?

Il s’agit bien des objets qui ont une vie numérique depuis l’idée jusqu’au démantèlement (même si ce n’est pas abordé dans l’article, le fait d’avoir à disposition toutes les infos nécessaires permet de l’envisager), avec une interrogation possible durant sa vie opérationnelle. Un objet  interopérable, ouvert, à vocation collaborative.

« Un bon spime est à la fois plus complexe que ce qu’exigerait son usage premier (”trop” riche en fonctions) et jamais fini. Il se présente comme “un projet technologique ouvert dont l’évolution est déléguée à ses utilisateurs finaux.” » Cela ressemble furieusement à tous ces services « web2.0 » que l’on s’approprie, que l’on détourne pour son usage personnel.

Autant l’ article précédent me faisait penser au web1.0 (le contenu statique, contrôlé par quelques uns), voire la tentative de l’industrie d’utiliser Internet comme un réseau fermé équivalent à ceux qu’elle a l’habitude de déployer, autant dans cet article on est bien dans la dimension participative dans les objets. Les deux modèles cohabiteront sans doute, et correspondent à des usages différents.

En termes d’innovation, ce qui est important c’est bien l’Internet des objets au sens ouverture, participation, collaboration, données exploitables et liens possibles. Ce que nous en ferons ? Nous verrons bien, de nouveaux usages verront le jour. En plus cela permet l’action locale dans un monde global. Et si cela conduit à améliorer la planète et le quotidien, tant mieux !

Y-a-t-il des clubs de spimeurs en France ?

Et décidément, comment vont évoluer les métiers de l’ingénierie et de l’informatique dans ces changements annoncés ?

P2P Foundation

Mots clés du social learning (quelques)

Mots clés du social learning
ou dois je dire tags ou ontologie ?
ou le petit vocabulaire d’apprendre 2.0 et 3.0

C’est un pré premier jet, sans doute à intégrer dans un wiki pour permettre une vie plus riche à une telle liste, ou à jeter peut être…

Ou à mettre sous forme de nuage de tags …

Usages

personnalisation
collaboration
social

Pédagogiques

(socio-)constructivisme
connexionisme, social learning
apprentissage formel, informel

Capacités

construction, réflexion, collaboration

Marketing – au sens accroche et nécessitant explicitation

web2.0, web3.0
elearning2.0, elearning3.0
mobile learning

Techniques

P2P, distribué
sémantique
mobile, pervasif, ubiquitaire, ambient
interfaces multitouch, multi canal
3D, objets et espaces virtuels
real-time web

Outils

forums, chats, video-conference, tableau blanc
Blogs, wikis, e-portfolio
réseaux sociaux

podcasts,
media-sharing services
LMS

Personnes

apprenant, élève
pair
enseignant, tuteut, accompagnant

Pour info
1 axe possible lié à l’intégration des équipements

nomadisme : changer d’équipement

mobile : selon 3 dimensions : spatial, temporel, thématique
ubiquitaire : tout, tout le temps
pervasif : interaction, collaboration avec l’environnement (au niveau matériel et plus)
ambient : ambient awareness is socially distributed thinking

évolutions du e-learning : le social learning

Clairement, nous sommes à un tournant sur la nature de l’apprentissage augmenté par les technologies (pour reprendre la terminologie anglo-saxonne « Technology Enhanced Learning »). Les systèmes actuels ou LMs (pour Learning Management Systems) largement déployés (je pense aux Moodle, Claroline et autres WebCT) rendent bien des services aux institutions mais montrent aussi leurs limites. Ils n’ont pas modifié les pratiques en profondeur (p. ex. le paradigme de socio-constructivisme de Moodle n’est pas souvent utilisé dans les faits). Souvent l’espace de cours se réduit à un dépôt de supports de cours. Mais surtout, ils ne suivent pas les évolutions du web. Ils n’encouragent pas l’interconnexion avec d’autres sources de savoirs, ils ne permettent pas des interactions sociales de manière naturelle. En bref ils ne sont pas interconnectés avec le reste du monde.

Pour aborder cette dimension, je retiens 2 articles qui se complètent.

  1. e-learning3.0 de Steeve Wheeler
  2. Social software: E-learning beyond learning management systems de Christian Dalsgaard

Quelles évolutions pour un nouvelle e-learning ? Steeve Wheeler dans son article e-learning3.0 voit 4 axes :

  1. système distribué
  2. technologie mobile étendue
  3. collaboration filtrée intelligente
  4. Visualisation et interaction 3D

qui sont des axes technologiques. Selon lui, cela doit conduire à améliorer :

  1. la personnalisation de l’apprentissage, grâce à un accès et à une agrégation facilités
  2. l’accès aux outils, aux ressources, aux personnes, qui va devenir ubiquitaire
  3. un véritable apprentissage collaboratif grâce au développement d’outils intelligents permettant le filtrage des informations
  4. les interactions avec les ordinateurs, en permettant d’interagir avec des objets virtuels et d’explorer des espaces virtuels au travers d’interfaces multitouch 3D

On a ici en vue les fait que les outils permettent potentiellement d’enrichir l’expérience d’apprentissage.

Christian Dalsgaard dans son article Social software: E-learning beyond learning management systems ne tranche pas sur l’idée de savoir si on doit utiliser des outils intégrés ou séparés. Tout dépend selon lui de la pédagogie choisie et des activités d’apprentissage qui s’y rattachent. La pédagogie choisie est une construction à partir des courants existants (en cela il est en ligne avec ce qu’écrit Marcel Lebrun).
Il cite par ailleurs La définition de Terry Anderson de logiciel éducatif social :
« […] networked tools that support and encourage individuals to learn together while retaining individual control over their time, space, presence, activity, identity and relationship. »
(Anderson 2005a, p. 4)
reformule bien, dans un contexte d’apprentissage, l’idée qu’un logiciel social permet de combiner un objectif de groupe et le respect de l’individualité.
Il démontre ensuite que pour construire un environnement permettant l’auto-organisation de l’apprentissage sous-jacente au socio-constructivisme, il est nécessaire de dépasser l’utilisation unique d’un LMS. Il propose ainsi une organisation du système à 3 niveaux :

  • système de gestion pour les aspects administratifs de l’enseignement (inscription, accès bibliothèque…, en gros l’ENT de nos universités)
  • les outils personnels qui permettent aux étudiants de consigner leurs idées, leurs notes, leurs travaux  et autres éléments de construction, complété éventuellement par un e-portfolio pour en ré-arranger la présentation
  • outils collaboratifs pour encourager les liens entre étudiants, travaillant sur un même projet. Il distingue (au moins) 3 types de réseaux sociaux (j’ai envie de dire 3 axes de relations)
    1. réseau entre personnes travaillant collaborativement
    2. réseau entre personnes partageant un contexte (un cours, son institution
    3. réseau entre personne partageant un domaine d’intérêt

Ces réseaux doivent être organisés par les participants. Ils ne peuvent être imposés, au mieux facilités. L’idée est de mettre à disposition des outils personnels et des moyens de tisser ses liens, pour faciliter l’apprentissage. Il s’agit de permettre une vie dynamique du réseau, permettant les interactions, l’interconnexion de réseaux et la variété. Chacun va pouvoir construire un profil individuel dans cet environnement. Il est nécessaire de nourrir ce réseau en proposant des références, des éléments, mais l’idée est que le système social va s’interconnecter au delà de l’établissement. Il est donc à la fois dans et hors de l’établissement.

On retrouve néanmoins l’idée qu’un système d’apprentissage fermé ne peut pas pleinement tirer parti de l’évolution sociale du web. Le paradigme du socio-constructivisme qui guidait les développeurs de LMS jusqu’ici (voir par exemple les documentations de Moodle) semble insuffisant pour rendre compte de ce changement.

Ces réseaux peuvent être construits au travers d’outils indépendants ou au travers d’outils intégrés facilitant le travail des étudiants de manière auto-organisée.
La pédagogie basée sur la résolution de problèmes semble un prérequis. La condition est bien que l’étudiant soit engagé dans ses études.
On est bien dans une démarche centrée sur l’étudiant. Qui s’entend avec une orchestration mettant en place des cours, des résolutions de problèmes … Mais qui permet aussi de préparer les étudiants à un apprentissage tout au long de la vie en leur donnant la maîtrise d’outils qu’ils pourront ensuite s’approprier.

Ce que je retiens, c’est que le elearning de demain doit être intégré dans la toile et non isolé, et qu’ainsi il permettra de profiter à plein des nouvelles technologies supportées.
Ces technologies pourront être intégrées dans nos scénarios pédagogiques pour développer de nouvelles dimensions d’apprentissage, que ce soit la dimension sociale (intégrant collaboration et personnalisation), la dimension ubiquitaire grâce notamment aux équipements mobiles, et la dimension exploration grâce aux nouvelles interfaces.

Modèle économique du web : une bonne raison pour réhabiliter le P2P

Faiblesses du modèle économique actuel du web2.0

Pisani et Piotet le disent dans leur livre, le modèle économique basé sur le contenu généré par les foules n’a pas trouvé son modèle économique. Et de fait, le problème est bien que pour exister, il faut multiplier le nombre d’utilisateurs (par millions de préférence) , que pour attirer ceux-ci il faut proposer des services gratuits.

Les coûts liés à l’architecture actuelle (des serveurs centralisés sous forme de fermes d’ordinateurs) peuvent alors rapidement devenir importants en matériel et en électricité. Et les recettes sont pour le moins incertaines, puisque seul Google réussit à vraiment entrer de l’argent via les publicités, et encore pas pour tous les services (voir le déficit abyssal de YouTube par exemple).

L’article La bande passante ne se trouve pas sous les sabots d’un cheval ne dit pas autre chose, l’inflation de données coproduites et gratuites est indispensable pour la croissance de ces entreprises, tout en étant leur pire talon d’Achille.  Mais les commentaires de ses lecteurs sont intéressants : en résumé, la solution passe par le P2P ou pair à pair (le concept repoussoir de Minitel2.0  y est même cité).

En effet, deux solutions lorsque l’équilibre n’est pas garanti :

  • Soit augmenter les recettes ce qui ne pourra au mieux marcher que pour quelques géants, avec les problèmes de monopoles et de contrôle de l’information que cela posera (qui de fait se pose déjà) ;
  • Soit diminuer les dépenses, c’est à dire remplacer ces fermes de serveurs par un système moins coûteux et moins énergivore.

Et de fait, il y a pas mal de buzz autour de cette idée de développer le pair à pair ou P2P comme support au développement de services 2.0. Voyons pourquoi et quels avantages y trouver.

Internet :  une architecture décentralisée

Au départ, Internet a été prévu pour être totalement décentralisé (pour pouvoir continuer à fonctionner même en cas d’attaque atomique massive, c’était la guerre froide en ce temps-là). Au moment où le web a démarré, les ordinateurs sont devenus asymétriques, d’un coté les serveurs, de l’autre les clients. Cela correspondait bien à l’organisation du web 1.0, avec des serveurs de données institutionnels et des utilisateurs privés. Et de fait l’architecture d’Internet proposée par les FAI colle à ce modèle, ce que Benjamin Bayart a comparé au Minitel2.0. Mais cette architecture reste bien lié à une conception 1.0 du web. Autre défaut de ce modèle recentralisé, le système est devenu bien moins fiable.

Avec l’avènement du web2.0, les rôles ont glissés, l’utilisateur est devenu acteur ou webacteur, fournisseur de données, la production de données est partout, mais leur traitement reste centralisé. Parce que c’est l’habitude, parce que l’architecture client-serveur est plus facile à mettre en place, bien maîtrisée, et permet de mettre en avant un modèle économique, puisque l’on peut identifier un service et une entreprise.

Pourtant une autre architecture, collant mieux à un web2.0 où tout un chacun est producteur d’informations existe et ne demande qu’à être généralisée.

Le pair à pair pour faire correspondre architecture réseau et architecture logicielle

En effet le pair à pair est une simple technologie, pas un repaire de pirates.  De fait, il est au cœur d’une communauté active de recherche et de développement. Il a déjà prouvé sa fiabilité, et sa capacité de passer à l’échelle qui pose tant problème au modèle économique actuel.

le P2P pour le partage et la réappropriation du contenu donc. Il permet en effet  l’émancipation de multi-nationales qui peuvent être tentées par le contrôler des données et qui ont besoin, par nécessité d’afficher une croissance, de récolter de plus en plus de données, même si les besoins ne sont pas évidents ou éthiques.

Il permet à chaque machine d’ajouter des informations, d’en stocker et d’y accéder de manière décentralisée. Une partie du code des services s’exécute déjà de manière décentralisée sous forme d’Ajax ou équivalent  dans les navigateurs. Pourquoi ne pas faire correspondre l’architecture d’exécution et de stockage de données ?

Sans doute, parce que cela parait aujourd’hui plus compliqué à mettre en œuvre, que le modèle économique correspondant n’est pas suffisamment établi pour que les créateurs de service pensent à l’utiliser et aussi peut-être pour des raisons de performance (il est plus long de faire une requête sur un système P2P que sur un système centralisé). Il reste sans doute des recherches à faire dans ce sens (voir par exemple Defining the technical characteristics of human emancipation) ou bien d’autres.

Quel support matériel pour le P2P ?
Quels sont les machines les mieux placées pour un tel modèle Pair à Pair ? En fait, elles sont placées à l’interface entre les réseaux opérateurs et les terminaux utilisateurs, nos *box et les « routeurs ». Ce sont des ordinateurs, qui comme qualités remarquables qu’ils restent allumés 24h/24 (ne serait ce que pour pouvoir téléphoner) et qu’ils sont à l’entrée (numérique) de nos maisons. Il est possible d’y intégrer un OS ouvert, comme Linux (en fait il y souvent est déjà) ou GroundOS, qui en a interpellé plus d’un en avril.

A ce niveau peut se jouer un conflit d’intérêt. L’opérateur a intérêt à contrôler ce niveau et de proposer ensuite des services de son choix à ses clients. Malheureusement, cela ne peut marcher que si c’est l’utilisateur final qui soit maître des services installés pour pouvoir suivre l’extrême versatilité des utilisateurs qui adoptent en quelques jours/mois un nouveau service (et qui donc en quittent d’autres).

Une infrastructure de type pair à pair serait la bienvenue dans ces équipements à condition qu’elle soit au service de l’utilisateur, ouverte pour pouvoir interconnecter les équipements des différents opérateurs de tous les pays. Dans le cas d’un blocage technique ou stratégique des FAI, l’autre solution sera de laisser un ordinateur allumé dans la maison. Techniquement, cela peut s’envisager, c’est juste dommage de doubler les équipements à ce niveau.

Compatibilité entre pair à pair et logiciel libre.

Le Web a été créé pour mettre et partager de l’information en ligne pas pour faire de l’argent. Or si l’on construit une architecture centralisée, il faut nécessairement des moyens. Ceux-ci peuvent être portés par des institutions (c’est le cas pour le web au tout début). Mais dans un web participatif, chacun peut apporter sa pierre à l’édifice. Imaginez pouvoir dire qu’une partie du projet encyclopédique Wikipédia est hébergé chez vous, que vous êtes un serveur pour Twitter Indenti.ca.  C’est d’ailleurs bien le seul moyen de déployer des applications libres coopératives à grande échelle.  Wikipédia survit mais seule sa notoriété lui permet de lever des fonds par dons. Cela n’est absolument pas généralisable à tout type de service.

Cette approche pourrait enfin permettre une percée du logiciel libre au niveau des applications type web2.0.

Compatibilité entre pair à pair et modèles de marché.

Premier avantage du pair à pair,  cela baisse encore le coût de création d’un nouveau service, puisque l’infrastructure se réduit à l’information, la mise à disposition du logiciel, et un portail pour permettre la connexion aux pairs existants.

Ce qui n’empêche pas d’imaginer un moyen d’imaginer un modèle économique basé sur la mise à disposition d’un service (tout comme les services payants actuels), sur la publicité ou sur la mise à disposition d’un infrastructure  comme eBay. Ainsi Skype est déjà un logiciel pair à pair propriétaire.

La nouveauté réside juste dans le fait qu’il n’est plus indispensable de dégager des fonds pour proposer un nouveau service. Imaginer le partage, la coproduction jusqu’au niveau de l’architecture, c’est le retour au fondement de l’Internet. La technologie actuelle correspondante s’appelle pair à pair, c’est à dire un système distribué symétrique.

In or Out the Cloud ?

L’informatique dans les nuages ! Voici une image qui parait alléchante, mais pourquoi les nuages devraient ils s’arrêter à ma porte ? Pourquoi ne pas pouvoir être moi-même dans les nuages ? Ce léger déplacement de la frontière change l’architecture du tout au tout. Soit ce sera l’avènement d’une architecture centralisée (via des fermes de serveurs) conduisant à des problèmes de contrôle des données de tous par quelques  entreprises, à des usines/fermes consommatrices d’énergie. Soit ce sera une architecture où les équipements permettant l’utilisation des données les hébergeront également et les metront à disposition de tous, et où l’invention et le déploiement de nouveaux services sera possible pour tous.

%d blogueurs aiment cette page :