Le numérique en classe : moins cher que le stylo !

On annonçait cette semaine un PC à moins de 20 euros, c’est à dire moins cher que la moindre calculette de nos enfants, que chaque famille est pourtant obligée de payer. Certes sans écran, mais quand même…

Bon considérons qu’il faille un vrai portable, une tablette ou un équipement de ce type, en y intégrant une assurance. Comme il doit être facile de faire des commandes groupées, on va tomber dans les 250- 300 euros. Il n’y a certainement pas besoin d’une machine extraordinaire au collège ou au lycée, il y a peut être moyen de descendre en dessous. Ça c’est pour les coûts.

Coté économies, le premier poste auquel on pense, ce sont les livres papiers qui peuvent devenir naturellement numériques et donc moins chers pour pleins de raisons : d’abord l’édition peut faire de nombreuses économies qui devraient logiquement se retrouver dans le prix final. Par ailleurs, ce passage au numérique peut encourager le développement de ressources éducatives libres qui peuvent permettre d’autres réductions (sans parler du reste). Ces coûts sont aujourd’hui supportés par la collectivité, mais peuvent en tout cas équilibrer une partie du prix (voire entièrement).

Second poste d’économies potentielles : le prix des fournitures scolaires supporté par les familles. On parle de 150 € chaque année. Parmi cela une soixantaine d’euros va dans l’équipement pour le sport. Disons qu’il y a encore une vingtaine d’euros pour des équipements comme les arts plastiques. Reste 70 € pour les cahiers, classeurs, crayons, gommes …. Sur 3 ans : 210 €, presque la valeur du PC précédemment cité.

Tout cela pour dire qu’en couplant un effort public et une participation des familles équivalente ou moindre qu’actuellement, on doit largement pouvoir financer des équipements numériques pour tous.

Bon, je force un peu le trait, c’est vendredi soir. Et je sens que le chiffrage exact me prendrait trop de temps (et est-il indispensable?) Cette réflexion me vient en fait d’une lecture d’un article de Steve Wheeler sur les technologies pour 2020 (en anglais) dans lequel il considérait que les technologies numériques deviendraient aussi naturelles que le crayon et le stylo le jour où elles seraient aussi abordables. Sauf que … un ordinateur ne remplace pas que le stylo, mais aussi la feuille sur laquelle on écrit, le livre que l’on consulte, la calculette pour le cours de maths, et j’en oublie.

D’où ce petit calcul, pour arriver à la conclusion, que si on le voulait, il serait possible d’équiper tous nos enfants dès la rentrée. L’obstacle n’est pas financier.

Vous n’y croyez toujours pas ? Quel est le taux d’équipement de téléphones mobiles ? 89 % au niveau du lycée en 2010! Or un mobile aujourd’hui c’est la puissance du PC d’il y a disons 5 ans. Et à cette date, on pouvait déjà faire tenir toutes les applications nécessaires pour une formation de ce niveau dans n’importe quel PC du commerce.

Si en plus, on se pose la question en termes de rééquilibrages des sommes engagées entre l’équipement à la maison, le cartable, et l’équipement dans les établissements, il doit y avoir moyen de dégager des économies et de réduire l’empreinte carbone.

Non décidément, l’argument de ne pas passer au numérique pour des raisons de prix ne tient pas.

La question est ailleurs :

  • Définissons ce que pourrait être un cartable numérique (j’entends un équipement qui prenne la place du contenu du cartable), entre parents, pédagogues, éditeurs. Il sera sans doute plus solide, à l’image de la calculette sur laquelle plus personne ne se pose de questions et qu’il remplacera élégamment ;
  • Formons les enseignants, permettons leur de s’approprier cet outil ;
  • Ne laissons pas les politiques décider d’investir au coup par coup tel ou tel établissement en fonction de la mode du moment. Équipement qui est alors imposé aux enseignants et qui ne savent alors pas quoi en faire. Mais demandons leur d’être volontariste et de définir un plan ambitieux qui revisite les modes de financement de toutes les fournitures et autres livres à l’école, et qui surtout accompagne les premiers intéressés à savoir les enseignants ;
  • et finalement abordons la dimension de l’équipement numérique dans sa globalité. Pas d’un coté l’école, de l’autre la maison, et du troisième la réduction de la fracture numérique.

Bref, définissons ensemble le remplaçant de la calculette, et des autres fournitures.

Cet équipement serait solide comme une calculette, communicant et mobile comme un smartphone, grand et tactile comme une tablette. Peut être l’écran de lecture serait « fixe » pour un confort de lecture. De manière amusante le projet OLPC (One Laptop Per Child ou un portable par enfant) a été défini pour les pays émergent, pourquoi ne peut on penser un OLPC pour nos contrées ?

Au fait l’ordre de prix d’un OLPC c’est entre 75 et 130$…

Crédit photographique : OLPC flat Par dnwallace licence CC by nc SA

NB : Cet article a été rédigé comme contribution au débat pour le colloque Le numérique pour changer l’École du 18 mai 2011. Publié initialement sous licence CC-by, il a été repris sur le site du colloque, sur la plate forme citoyenne Educavox, et sur @-brest.

Tous les ingrédients pédagogiques d’un startup weekend

Olivier Ezratti, conseiller pour entreprises high-tech, nous livre tous les ingrédients d’un Start Up week end réussi : l’intérêt de s’adosser à une « marque », l’importance du mixage de cultures, de la présence de mentors … l’article ? La force pédagogique des startup weekends !

On y trouve des vidéos prises sur le vif d’intervenants (vidéo ici faite par Simon Robic sur le financement des startups), la référence à droite sur le Guide de l’Accompagnement des Star­tups High­tech en France, qui m’a l’air tout à fait passionnant au premier survol (et en Creative Commons, ce qui ne gâte rien). Bref, plein de matière pour ceux qui sont intéressés par le sujet. Des ressources éducatives si je reprend ma casquette d’enseignant.

Il insiste donc sur la dimension pédagogique des ces événements, ce que je soulevai ici. Le point qui me paraît particulièrement intéressant, c’est qu’il montre la complémentarité des apprentissages de chacun dans son rôle propre. Du partage, de la confrontation, du coté théâtral (unité de lieu, de temps et d’action) nait une situation particulièrement riche. Et c’est en augmentant la diversité que l’on augmente la richesse de l’expérience.

Un dernier point particulièrement sympathique dans cette communauté, c’est son caractère positif et fonceur. Il s’agit juste d’y aller, d’y croire et de s’accrocher. Belle leçon de vie. J’espère qu’elle se retrouvera dans l’Innovation Camp de cet été dans lequel 2 équipes d’élèves de l’école ont été sélectionnées.

Quel curriculum pour l’innovation ?

« Qu’est-ce qui doit être enseigné ? Comment en décide-t-on ? Quelles formes cela peut-il prendre ? De nombreux pays accordent de plus en plus d’importance à ces questions, au sein de leurs politiques éducatives. » Cette introduction du dernier numéro de la Revue Internationale d’éducation de Sèvres paraît être une évidence. Sauf que l’on apprend juste après que c’est un outil absent en France. Et que ce qui doit être enseigné ne va pas de soi.

Et effectivement, deux autres articles vus cette semaine montrent bien que même le positionnement ne va pas de soi. D’une part le Monde Diplomatique annonce que « En Europe, (ce sont) les compétences contre le savoir », c’est à dire que le socle minimal doit permettre une employabilité de tous en garantissant « dynamisme et flexibilité ». La réussite de tous est en fait une maitrise minimum, la « surqualification » actuelle est alors une perte d’argent puisque tous n’auront pas besoin d’être qualifiés (ni donc trop payés). L’article cite Claude Thélot, président de la commission du débat national sur l’avenir de l’école, reprit la même thèse dans le rapport remis en 2004 au ministre de l’éducation François Fillon : « La notion de réussite pour tous ne doit pas prêter à malentendu. Elle ne veut certainement pas dire que l’école doit se proposer de faire que tous les élèves atteignent les qualifications scolaires les plus élevées. Ce serait à la fois une illusion pour les individus et une absurdité sociale, puisque les qualifications scolaires ne seraient plus associées, même vaguement, à la structure des emplois (6). »

La « société de la connaissance » ou la « nouvelle économie » resteront réservées à une élite. L’université pourra utilement se poser la question de quelle est la dimension de cette élite. L’école pourrait se poser de la pertinence de développer des enseignements différenciés pour permettre au plus tôt de différencier le bon grain de l’ivraie. Sauf que cela pourrait reposer de manière aigüe le problème de l’équité de l’éducation.

Et en effet, on peut poser le problème du socle commun de manière très, très différente. Emmanuelle Erny-Newton a trouvé un excellent argumentaire dans sa trilogie « la Fabrique de Citoyens : LibertéÉgalitéFraternité » Sa série démarre sur une réflexion de Joel Westheimer [vidéo, en], professeur à l’Université d’Ottawa :

« Imaginez que l’on vous bande les yeux et qu’on vous expédie dans un tout autre point du monde. Pour les besoins de la démonstration, imaginons que rien, dans l’apparence ni le langage des gens, ne vous permette de deviner où vous pourriez être.
On vous emmène dans une classe ; on retire le bandeau de vos yeux, et vous observez le déroulement de la leçon.
À partir de cette observation, seriez-vous en mesure de deviner si vous vous trouvez dans un pays démocratique, ou dans un pays totalitaire ? »

Je vous laisse découvrir la suite, c’est à ne pas manquer.

En fait la question se pose également au niveau de l’enseignement supérieur. Prenons l’innovation, qui est dans tous les rapports. Prenons les exemples donnés à nos élèves ingénieurs. Voulons nous des spécialistes du transfert des découvertes des laboratoires de recherche comme on nous le dit dans un certain nombre de publications récentes (voir par exemple Adapter la formation de nos ingénieurs à la mondialisation) ? Cherche-t-on à développer des as du business qui développeront le prochain Facebook ? Veut-on des citoyens qui puissent répondre aux besoins sociaux, comme le propose l’initiative Imagination for People qui cherche à valoriser ces innovations « disruptives » ?

Ou cherchera-t-on simplement à présenter des possibles pour permettre à chacun de trouver la place qui lui convient et à s ‘épanouir dans une société qui ne l’oublions pas devra être durable ?

crédit photo : Innovation par Seth1492 licence CC-by

Ernest, raconte moi une histoire

Ou comment construire son business innovant à l’heure d’Internet

Petite discussion aujourd’hui avec un bon ami, sur les moteurs de l’innovation, sur les changements liés à Internet, et sur les méthodes pour convaincre. A la clé, un petit ensemble de références accessibles pour qui voudrait comprendre quelque clés concernant l’impact d’Internet sur le montage d’un nouveau business.

On a parlé du livre de Lawrence Lessig, Free Culture ou Culture libre en français, de celui de Chris Anderson, Free, pour les idées globales racontées au travers  d’histoires, d’anecdotes, sur le mode de la conversation, et finalement généralisées. Indispensables pour aborder les nouveaux modèles économiques et les droits liés. On y trouve les concepts principaux : le problème des droits d’auteurs et les équilibres liés,l’économie de l’attention, le modèle du gratuit

Le livre collaboratif « Business Model Generation » a été évoqué pour sa vue globale pour définir la structure d’une entreprise, et définir son modèle éconmique. Un Must, semble-t-il.

Autre étape importante pour développer son entreprise : convaincre. Que ce soient des futurs partenaires, des futurs clients ou des décideurs, le challenge est d’accrocher son auditoire, et de lui laisser une « image » pour la suite.  On a donc parlé du livre « Convaincre en 2 coups de crayons » qui propose une méthode basée sur la production de petits schémas simples et clairs. Le livre de Lessig est convaincant notamment au travers de ses schémas simples et synthétiques. L’heure est au schéma marquant, explicite, synthétique, ciblé pour construire et expliquer son argumentaire. A l’heure de l’économie de l’attention, il faut aller à l’essentiel.

Et cela se traduit au niveau des modes de communication. Les vidéos aux chiffres et idées clés fleurissent pour la prise de conscience, mais pour expliquer un élément un peu complexe la démarche de CommonCraft, qui privilégie les explications au travers de schémas dynamiques en 3 minutes reste inégalée.

Quoique, pour les grandes idées, le format de TED : une personne présente une idée révolutionnaire en 18 minutes, et sa vidéo est retransmise sur le web fait des émules. l’ENS d’ULM propose ainsi ses Ernest, pour diffuser la connaissance. Puisque l’on est dans l’innovation, la compréhension des modèles économiques et les changements dus à Internet, deux vidéos « introductives » peuvent retenir l’intérêt.

A noter à titre d’exemple de l’importance de l’image la démarche de ces 2 orateurs. Pierre Bellanger construit son support sur des croquis simples et des idées clés, qui résument son discours. Serge Soudoplatoff lui se contente d’un  tableau dynamique de compteurs ( de Gary Hayes) qui résume l’impact d’Internet au travers de l’évolution les chiffres clés le temps de son discours, et qui reste derrière lui le temps de son intervention.

Voilà donc un début de petite bibliothèque pour mieux apprendre à construire dans le monde du début du XXIème siècle. En tout cas un contexte indispensable à comprendre pour le domaine de l’innovation.

Fish in water by Mc Beth - licence CC sur flickr

Concernant l’enseignement, les impacts sont :

  • les éléments à comprendre pour le futur ingénieur ;
  • l’impact du problème des droits d’auteurs sur la diffusion des ressources éducatives (libres notamment).
  • l’approche d’outils plus pertinents pour faire passer des concepts auprès des élèves.

Mais les deux derniers points feront l’objet de billets ultérieurs 🙂

Les inscriptions à la P2PU sont ouvertes

Les inscriptions à la P2PU sont ouvertes aujourd’hui – venez choisir vos nouveaux cours

Traduction de l’article « P2PU Sign-up opens today – come and get your new courses! », par rebeccakahn du 26 août 2010.

La Peer 2 Peer University (P2PU : Université Pair à Pair) vient d’annoncer aujourd’hui l’ouverture de son troisième cycle de cours libres en ligne. Un nombre croissant de cours spécialisés dans des domaines allant de la gestion de cours collaboratifs jusqu’au trafic des êtres humains.

La P2PU est également heureuse d’annoncer le lancement de la P2PU School of Webcraft (école P2PU des métiers du web), mené en collaboration avec la Fondation Mozilla. L’école des métiers du Web est une nouvelle manière d’apprendre le développement sur les standards ouverts du web dans un environnement collaboratif. Les cours de cette école incluent « Débuter avec les services web Python » ou HTML5.

Toutes les classes sont universellement accessibles, gratuites et alimentées entièrement par les apprenants, les mentors et les contributeurs. L’objectif est de créer un système dynamique, guidé par les pairs, donnant un accès facile mondial permettant de bâtir sa carrière sur les technologies web ouvertes.

La communauté P2PU est en croissance et heureuse d’accueillir ces nouveaux cours leurs organisateurs en son sein.

Depuis la dernière série de cours, quelques changements ont eu lieu à P2PU, notamment sur le site P2PU sur lequel a été apporté une révision majeure, le rendant plus simple et plus facile à utiliser que jamais. La communauté P2PU conserve ses principes, de contenus générés par la communauté ouverts et partageables sous licence CC BY-SA.

La communauté P2PU se compose d’un groupe diversifié de personnes. Ils sont écrivains, enseignants, concepteurs, doctorants et autres étudiants diplômés, artistes, spécialistes du droit d’auteur, des scientifiques et des musiciens de blues de la guitare. Surtout, ils sont des apprenants travaillant ensemble pour apprendre les uns des autres.

Inscrivez-vous en ligne en parcourant la liste : http://p2pu.org/course/list. La date limite d’inscription est le 8 septembre 2010. Les cours ouvriront d’ici le 27 Octobre. L’inscription à un cours peut nécessiter des informations supplémentaires.

L’initiative P2PU est très intéressante, proposant une vraie communauté d’apprentissage, basée sur des productions ouvertes à tous. Cela dit pour l’instant la P2PU est uniquement anglophone. Faut-il envisager une déclinaison francophone ?

L’université du XXIème siècle par les auteurs de Wikinomics

Don Tapscott et Anthony D. Williams proposent un modèle innovant pour les universités du XXIème siècle. L’innovation vient sans doute dans l’organisation claire de cette université revisitée plutôt que dans les idées prises individuellement. Mais cette structuration est plutôt riche.

Comme cet article est malheureusement copyrighté, nous nous contenterons d’en résumer les points essentiels, plutôt que d’en faire une traduction.

L'université, un vieux modèle en silos ?

Première idée : tout comme les encyclopédies, les journaux, les musiques, les cours vont devenir des objets sans valeur intrinsèque. Les universités qui font payer cher pour autoriser à suivre un amphi bondé ne pourront pas le faire longtemps.

La valeur ajoutée d’une institution est donc dans sa pédagogie, ce qui pour une université passe par un apprentissage collaboratif et par une production de connaissance collaborative. La personnalisation, l’accompagnement, le travail en groupe basé sur des problèmes, projets … dans des institutions à taille humaine sont donc des institutions qui peuvent survivre, mais cette dimension s’inscrira dans une dimension réseau qui permettra aux élèves de pouvoir s’inscrire aux meilleurs enseignements dans les établissements partenaires.

Pour nos auteurs, l’apprentissage collaboratif est social, englobe la découverte, est orienté apprenant et permet d’avancer à son rythme. Ils reprennent l’idée de la construction d’une séance de cours basée sur les questions des élèves, et donc un enseignement juste à temps.

Là où cela devient intéressant,c’est quand ils parlent de l’ouverture de l’université, qui basée sur le mouvement de liberté d’accès aux contenus, permettra l’avènement d’une meta-université globale sur les connaissances, ou ce qu’ils appellent un réseau global pour le supérieur. Ils proposent 5 niveaux pour ce réseau :

  1. échange de contenus. Il s’agit simplement de mettre à disposition des contenus. Cela représente néanmoins un changement important dans le supérieur, où chaque professeur est encouragé à l’originalité dans son cours, ce qui limite clairement l’accès à des ressources numériques. L’idée de ce niveau est donc de casser l’isolement des différents enseignants en leur permettant de réutiliser, de diffuser des contenus. Le projet emblématique à ce niveau est l’OpenCourseWare lancé par le MIT.
  2. collaboration sur les contenus. L’idée est qu’au delà de la mise à disposition, il sera possible de comparer les mises en œuvre, d’échanger sur les pratiques … Pour cela, il faudra développer un réseau social des enseignants du supérieur.
  3. co-innovation sur les contenus. Au delà du partage et de la collaboration, au niveau suivant s’envisage la co-création de contenu. Celle-ci peut s’envisager entre enseignants ou mieux avec les étudiants, un cours pouvant se dérouler sur une co-création, par exemple autour d’un wiki. La wikiversité, au niveau construction d’enseignement et les wikibooks, au niveau de la cocréation de contenus constituent des plate-formes permettant ce type de coopérations.
  4. co-création de connaissances. Dans un réseau universitaire global la collaboration dans la recherche, la création, la communication et l’exploitation de nouvelles connaissances peut adopter un processus plus dynamique qu’actuellement, permettant d’assurer les revues par les pairs de manière différente de celle prônée par les journaux scientifiques. Curieusement nos auteurs ne semblent pas connaître le mouvement de « science 2.0 ».
  5. Apprentissage collaboratif global. Dans un réseau ouvert, il n’y a pas de raison qu’un étudiant ne puisse s’inscrire au cours de son choix de n’importe quelle institution. La notion d’inscription à une institution, en tant que telle, n’aurait plus vraiment de sens. Il est possible de se construire ainsi son parcours dans le sillabus mondial. L’apprentissage se faisant ensuite dans des environnements en ligne pour découvrir, apprendre et produire de la connaissance en tant qu’individus connectés et résaux collectifs. Ainsi l’université du XXIème siècle serait un réseau et un écosystème et non plus des tours isolées.

Les auteurs remettent ensuite en question la valeur des crédits et diplômes dans un tel contexte, ainsi que l’intérêt du campus s’il ne s’accompagne pas d’une réelle expérience humaine.

Pour permettre à l’université de réinventer les auteurs proposent les étapes suivantes :

  • Adopter l’apprentissage collaboratif comme modèle pédagogique central ;
  • Lancer ce réseau global pour l’apprentissage dans le supérieur en vue de produire collaborativement des contenus et des connaissances ;
  • Définir des modèles de collaboration et de revenus entre universités pour casser l’effet silo, par exemple en se construisant autour de l’idée d’une institution première et de réseaux d’échanges ;
  • Changer les systèmes d’incitation pour récompenser l’enseignement et non pas seulement la recherche ;
  • Construire l’infrastructure correspondante

A prendre en compte dans cet article : ce ne sont pas des barbus du logiciel libre qui tiennent ce discours, mais bien des hérauts d’une nouvelle économie, ce qui peut donner une force nouvelle à ces idées.

Joli programme en tout cas. Y’a plus qu’à !

Se tromper d’abord, se tromper vite, se tromper pour avancer

Mon ami Gwendal visitait récemment le centre de design de Stanford dans le cadre d’un voyage d’études. Il nous a permis de suivre ses visites au travers de twitter. Qu’il en soit ici remercié.

Gwendal, donc, positive sympathiquement en affirmant que nos élèves ne sont pas particulièrement étonnés par la pédagogie proposée dans ce laboratoire en affirmant que leur pédagogie par projet était  équivalente à la nôtre. N’étant pas sur place, je ne me permettrai pas d’en juger. Comme je lui demandai ce qu’il retenait de cette visite, il m’a retourné un tweet pointant vers ce billet de blog : Fail First, Fail Fast, Fail Forward de Thomas E. Anderson, II.

De fait, ici encore, rien de nouveau sur le fond, nous parlons entre nous de « pédagogie par l’erreur ». Ce qu’il y a de différent entre les 2 cotés de l’Atlantique, c’est que de notre coté nous osons à peine le verbaliser entre nous, alors que nos amis américains positivent ce droit à l’erreur au point de donner envie de se tromper ! L’avantage de cette approche est de pouvoir en parler de manière décomplexée et donc de gérer ces moments de doute pour pouvoir en tirer bénéfice.

Classique, sans doute. Proposé chez nous, certes. Intégré ? par trop peu d’entre nous. En tout cas très très juste.

Internet du Futur

Dans le cadre d’une réflexion sur l’Internet du futur proposée par le gouvernement, mon laboratoire se penchera sur le sujet au cours de son prochain séminaire. Cette réflexion semble déjà bien engagée si l’on consulte un peu le questionnaire et son document d’accompagnement. On peut d’ailleurs légitimement se demander à qui s’adresse la consultation publique vu le genre de questions posées (Présentez les équipes et moyens que vous dédiez (ou pensez dédier à court et moyen terme) à chacun des thèmes liés à l’Internet du Futur et compléter autant que de besoin le tableau présent à l’Annexe 1. Quels sont, pour votre entité, les thèmes prioritaires ? ou Quelle part consacrez-vous à la recherche incrémentale et à la recherche disruptive sur ce sujet ?). Il serait sympathique de le préciser …. en tout cas ce ne semble pas être dédié au citoyen de base, ni même au chercheur de base.

Bon, malgré tout je peux répondre à la question 1. La suite se fera à un niveau plus haut que le mien. Allons-y en vue de ce prochain séminaire :

A l’horizon 2015-2020, quels sont les principaux nouveaux services, usages et applications qui viendront redéfinir le fonctionnement et l’utilisation de l’Internet dans vos domaines d’activité ?

Une intégration de la dimension numérique (données actuelles et du cycle de vie) dans les objets du quotidien (internet des objets) couplée avec une généralisation de la gestion des liens entre entités et information (web sémantique) introduit une version intégralement distribué des l’information (pair à pair). Une généralisation de l’accès et de la production d’information

Cette extension va amplifier la possibilité de mieux comprendre notre environnement et comment développer de nouveaux systèmes, de collaborer et d’apprendre !

en tant qu’enseignant en école d’ingénieurs, cela va changer notre manière d’aborder le monde et la formation.

Quel peut-être l’impact économique de ces évolutions ?

Comme le souligne le site de préparation d’Autrans 2010, entre autres : il va être nécessaire de redéfinir totalement les modèles économiques. Cela est par ailleurs indispensable pour pouvoir repenser notre rapport au monde et donc pouvoir répondre aux défis du développement durable.

Quelles opportunités et quels risques anticipez-vous dans le cadre de vos activités ?

Opportunités : pouvoir permettre une meilleure appropriation de notre environnement qui permette une revalorisation intellectuelle du métier d’ingénieur. Permettre un engagement de nos élèves dans leur formation et dans leur compréhension des problèmes.

Risques : un éclatement des institutions d’enseignement et du rôle de l’enseignant, diluant et réduisant l’accompagnement à la maturité intellectuelle des jeunes. Ce risque est d’autant plus important que l’éducation nationale (dont je ne fais pas partie) ne s’approprie que trop peu Internet et qu’au contraire elle se sanctuarise.

Dans ce contexte, quels facteurs auront le plus d’impact dans la redéfinition de l’Internet et de son architecture ?

L’important est de permettre un accès le plus libre et le plus transparent possible aux données pour permettre la formation, l’appropriation et l’amélioration de tous les champs de connaissance.

Quelles éventuelles nouvelles formes celle-ci peut-elle prendre ? Quels sont les verrous à lever ?

Celle-ci se rapporte à quoi : architecture ? Les 2 extrèmes sont Pair à pair ou centralisée.  Le risque est de tendre vers le pôle centralisé, l’opportunité est de tendre vers la plus grande répartition possible

Verrous à lever :

  • la confusion entre pirate (usage) et technique (partage et lien entre ordinateurs) : cela au niveau juridique et par ricochet au niveau opérateur
  • l’autonomie des équipements (adaptation dynamique, reconfiguration ,évolution …)
  • la rapidité d’accès à l’information
  • la gestion de la redondance et la synchronisation
  • l’interopérabilité


Internet des Objets

Daniel Kaplan en parle enfin dans son 3ème opus sur le sujet :

Repenser l’internet des objets (3/3) : Industrialiser l’internet ou internetiser l’industrie ?

Il s’agit bien des objets qui ont une vie numérique depuis l’idée jusqu’au démantèlement (même si ce n’est pas abordé dans l’article, le fait d’avoir à disposition toutes les infos nécessaires permet de l’envisager), avec une interrogation possible durant sa vie opérationnelle. Un objet  interopérable, ouvert, à vocation collaborative.

« Un bon spime est à la fois plus complexe que ce qu’exigerait son usage premier (”trop” riche en fonctions) et jamais fini. Il se présente comme “un projet technologique ouvert dont l’évolution est déléguée à ses utilisateurs finaux.” » Cela ressemble furieusement à tous ces services « web2.0 » que l’on s’approprie, que l’on détourne pour son usage personnel.

Autant l’ article précédent me faisait penser au web1.0 (le contenu statique, contrôlé par quelques uns), voire la tentative de l’industrie d’utiliser Internet comme un réseau fermé équivalent à ceux qu’elle a l’habitude de déployer, autant dans cet article on est bien dans la dimension participative dans les objets. Les deux modèles cohabiteront sans doute, et correspondent à des usages différents.

En termes d’innovation, ce qui est important c’est bien l’Internet des objets au sens ouverture, participation, collaboration, données exploitables et liens possibles. Ce que nous en ferons ? Nous verrons bien, de nouveaux usages verront le jour. En plus cela permet l’action locale dans un monde global. Et si cela conduit à améliorer la planète et le quotidien, tant mieux !

Y-a-t-il des clubs de spimeurs en France ?

Et décidément, comment vont évoluer les métiers de l’ingénierie et de l’informatique dans ces changements annoncés ?

Modèle économique du web : une bonne raison pour réhabiliter le P2P

Faiblesses du modèle économique actuel du web2.0

Pisani et Piotet le disent dans leur livre, le modèle économique basé sur le contenu généré par les foules n’a pas trouvé son modèle économique. Et de fait, le problème est bien que pour exister, il faut multiplier le nombre d’utilisateurs (par millions de préférence) , que pour attirer ceux-ci il faut proposer des services gratuits.

Les coûts liés à l’architecture actuelle (des serveurs centralisés sous forme de fermes d’ordinateurs) peuvent alors rapidement devenir importants en matériel et en électricité. Et les recettes sont pour le moins incertaines, puisque seul Google réussit à vraiment entrer de l’argent via les publicités, et encore pas pour tous les services (voir le déficit abyssal de YouTube par exemple).

L’article La bande passante ne se trouve pas sous les sabots d’un cheval ne dit pas autre chose, l’inflation de données coproduites et gratuites est indispensable pour la croissance de ces entreprises, tout en étant leur pire talon d’Achille.  Mais les commentaires de ses lecteurs sont intéressants : en résumé, la solution passe par le P2P ou pair à pair (le concept repoussoir de Minitel2.0  y est même cité).

En effet, deux solutions lorsque l’équilibre n’est pas garanti :

  • Soit augmenter les recettes ce qui ne pourra au mieux marcher que pour quelques géants, avec les problèmes de monopoles et de contrôle de l’information que cela posera (qui de fait se pose déjà) ;
  • Soit diminuer les dépenses, c’est à dire remplacer ces fermes de serveurs par un système moins coûteux et moins énergivore.

Et de fait, il y a pas mal de buzz autour de cette idée de développer le pair à pair ou P2P comme support au développement de services 2.0. Voyons pourquoi et quels avantages y trouver.

Internet :  une architecture décentralisée

Au départ, Internet a été prévu pour être totalement décentralisé (pour pouvoir continuer à fonctionner même en cas d’attaque atomique massive, c’était la guerre froide en ce temps-là). Au moment où le web a démarré, les ordinateurs sont devenus asymétriques, d’un coté les serveurs, de l’autre les clients. Cela correspondait bien à l’organisation du web 1.0, avec des serveurs de données institutionnels et des utilisateurs privés. Et de fait l’architecture d’Internet proposée par les FAI colle à ce modèle, ce que Benjamin Bayart a comparé au Minitel2.0. Mais cette architecture reste bien lié à une conception 1.0 du web. Autre défaut de ce modèle recentralisé, le système est devenu bien moins fiable.

Avec l’avènement du web2.0, les rôles ont glissés, l’utilisateur est devenu acteur ou webacteur, fournisseur de données, la production de données est partout, mais leur traitement reste centralisé. Parce que c’est l’habitude, parce que l’architecture client-serveur est plus facile à mettre en place, bien maîtrisée, et permet de mettre en avant un modèle économique, puisque l’on peut identifier un service et une entreprise.

Pourtant une autre architecture, collant mieux à un web2.0 où tout un chacun est producteur d’informations existe et ne demande qu’à être généralisée.

Le pair à pair pour faire correspondre architecture réseau et architecture logicielle

En effet le pair à pair est une simple technologie, pas un repaire de pirates.  De fait, il est au cœur d’une communauté active de recherche et de développement. Il a déjà prouvé sa fiabilité, et sa capacité de passer à l’échelle qui pose tant problème au modèle économique actuel.

le P2P pour le partage et la réappropriation du contenu donc. Il permet en effet  l’émancipation de multi-nationales qui peuvent être tentées par le contrôler des données et qui ont besoin, par nécessité d’afficher une croissance, de récolter de plus en plus de données, même si les besoins ne sont pas évidents ou éthiques.

Il permet à chaque machine d’ajouter des informations, d’en stocker et d’y accéder de manière décentralisée. Une partie du code des services s’exécute déjà de manière décentralisée sous forme d’Ajax ou équivalent  dans les navigateurs. Pourquoi ne pas faire correspondre l’architecture d’exécution et de stockage de données ?

Sans doute, parce que cela parait aujourd’hui plus compliqué à mettre en œuvre, que le modèle économique correspondant n’est pas suffisamment établi pour que les créateurs de service pensent à l’utiliser et aussi peut-être pour des raisons de performance (il est plus long de faire une requête sur un système P2P que sur un système centralisé). Il reste sans doute des recherches à faire dans ce sens (voir par exemple Defining the technical characteristics of human emancipation) ou bien d’autres.

Quel support matériel pour le P2P ?
Quels sont les machines les mieux placées pour un tel modèle Pair à Pair ? En fait, elles sont placées à l’interface entre les réseaux opérateurs et les terminaux utilisateurs, nos *box et les « routeurs ». Ce sont des ordinateurs, qui comme qualités remarquables qu’ils restent allumés 24h/24 (ne serait ce que pour pouvoir téléphoner) et qu’ils sont à l’entrée (numérique) de nos maisons. Il est possible d’y intégrer un OS ouvert, comme Linux (en fait il y souvent est déjà) ou GroundOS, qui en a interpellé plus d’un en avril.

A ce niveau peut se jouer un conflit d’intérêt. L’opérateur a intérêt à contrôler ce niveau et de proposer ensuite des services de son choix à ses clients. Malheureusement, cela ne peut marcher que si c’est l’utilisateur final qui soit maître des services installés pour pouvoir suivre l’extrême versatilité des utilisateurs qui adoptent en quelques jours/mois un nouveau service (et qui donc en quittent d’autres).

Une infrastructure de type pair à pair serait la bienvenue dans ces équipements à condition qu’elle soit au service de l’utilisateur, ouverte pour pouvoir interconnecter les équipements des différents opérateurs de tous les pays. Dans le cas d’un blocage technique ou stratégique des FAI, l’autre solution sera de laisser un ordinateur allumé dans la maison. Techniquement, cela peut s’envisager, c’est juste dommage de doubler les équipements à ce niveau.

Compatibilité entre pair à pair et logiciel libre.

Le Web a été créé pour mettre et partager de l’information en ligne pas pour faire de l’argent. Or si l’on construit une architecture centralisée, il faut nécessairement des moyens. Ceux-ci peuvent être portés par des institutions (c’est le cas pour le web au tout début). Mais dans un web participatif, chacun peut apporter sa pierre à l’édifice. Imaginez pouvoir dire qu’une partie du projet encyclopédique Wikipédia est hébergé chez vous, que vous êtes un serveur pour Twitter Indenti.ca.  C’est d’ailleurs bien le seul moyen de déployer des applications libres coopératives à grande échelle.  Wikipédia survit mais seule sa notoriété lui permet de lever des fonds par dons. Cela n’est absolument pas généralisable à tout type de service.

Cette approche pourrait enfin permettre une percée du logiciel libre au niveau des applications type web2.0.

Compatibilité entre pair à pair et modèles de marché.

Premier avantage du pair à pair,  cela baisse encore le coût de création d’un nouveau service, puisque l’infrastructure se réduit à l’information, la mise à disposition du logiciel, et un portail pour permettre la connexion aux pairs existants.

Ce qui n’empêche pas d’imaginer un moyen d’imaginer un modèle économique basé sur la mise à disposition d’un service (tout comme les services payants actuels), sur la publicité ou sur la mise à disposition d’un infrastructure  comme eBay. Ainsi Skype est déjà un logiciel pair à pair propriétaire.

La nouveauté réside juste dans le fait qu’il n’est plus indispensable de dégager des fonds pour proposer un nouveau service. Imaginer le partage, la coproduction jusqu’au niveau de l’architecture, c’est le retour au fondement de l’Internet. La technologie actuelle correspondante s’appelle pair à pair, c’est à dire un système distribué symétrique.

In or Out the Cloud ?

L’informatique dans les nuages ! Voici une image qui parait alléchante, mais pourquoi les nuages devraient ils s’arrêter à ma porte ? Pourquoi ne pas pouvoir être moi-même dans les nuages ? Ce léger déplacement de la frontière change l’architecture du tout au tout. Soit ce sera l’avènement d’une architecture centralisée (via des fermes de serveurs) conduisant à des problèmes de contrôle des données de tous par quelques  entreprises, à des usines/fermes consommatrices d’énergie. Soit ce sera une architecture où les équipements permettant l’utilisation des données les hébergeront également et les metront à disposition de tous, et où l’invention et le déploiement de nouveaux services sera possible pour tous.

%d blogueurs aiment cette page :