Retour de l’ENVSN : des formateurs numériques

Accueil très chaleureux ce matin à Saint Pierre de Quiberon.

Les notes ont été prises sur un framapad par différents scribes, et j’ai beaucoup dérivé par rapport au fil original. Cela tenait plus du débat que de la présentation, des séances comme je les aime.

Quelques liens qui m’ont été proposés par l’assistance, lors des débats :

Bref, un public exigeant, affuté, fichtrement sympathique et une super matinée.

Crédit photo : l’étoile par Erminig Gwenn licence CC-by-nc-sa

Publicités

Modèle économique du web : une bonne raison pour réhabiliter le P2P

Faiblesses du modèle économique actuel du web2.0

Pisani et Piotet le disent dans leur livre, le modèle économique basé sur le contenu généré par les foules n’a pas trouvé son modèle économique. Et de fait, le problème est bien que pour exister, il faut multiplier le nombre d’utilisateurs (par millions de préférence) , que pour attirer ceux-ci il faut proposer des services gratuits.

Les coûts liés à l’architecture actuelle (des serveurs centralisés sous forme de fermes d’ordinateurs) peuvent alors rapidement devenir importants en matériel et en électricité. Et les recettes sont pour le moins incertaines, puisque seul Google réussit à vraiment entrer de l’argent via les publicités, et encore pas pour tous les services (voir le déficit abyssal de YouTube par exemple).

L’article La bande passante ne se trouve pas sous les sabots d’un cheval ne dit pas autre chose, l’inflation de données coproduites et gratuites est indispensable pour la croissance de ces entreprises, tout en étant leur pire talon d’Achille.  Mais les commentaires de ses lecteurs sont intéressants : en résumé, la solution passe par le P2P ou pair à pair (le concept repoussoir de Minitel2.0  y est même cité).

En effet, deux solutions lorsque l’équilibre n’est pas garanti :

  • Soit augmenter les recettes ce qui ne pourra au mieux marcher que pour quelques géants, avec les problèmes de monopoles et de contrôle de l’information que cela posera (qui de fait se pose déjà) ;
  • Soit diminuer les dépenses, c’est à dire remplacer ces fermes de serveurs par un système moins coûteux et moins énergivore.

Et de fait, il y a pas mal de buzz autour de cette idée de développer le pair à pair ou P2P comme support au développement de services 2.0. Voyons pourquoi et quels avantages y trouver.

Internet :  une architecture décentralisée

Au départ, Internet a été prévu pour être totalement décentralisé (pour pouvoir continuer à fonctionner même en cas d’attaque atomique massive, c’était la guerre froide en ce temps-là). Au moment où le web a démarré, les ordinateurs sont devenus asymétriques, d’un coté les serveurs, de l’autre les clients. Cela correspondait bien à l’organisation du web 1.0, avec des serveurs de données institutionnels et des utilisateurs privés. Et de fait l’architecture d’Internet proposée par les FAI colle à ce modèle, ce que Benjamin Bayart a comparé au Minitel2.0. Mais cette architecture reste bien lié à une conception 1.0 du web. Autre défaut de ce modèle recentralisé, le système est devenu bien moins fiable.

Avec l’avènement du web2.0, les rôles ont glissés, l’utilisateur est devenu acteur ou webacteur, fournisseur de données, la production de données est partout, mais leur traitement reste centralisé. Parce que c’est l’habitude, parce que l’architecture client-serveur est plus facile à mettre en place, bien maîtrisée, et permet de mettre en avant un modèle économique, puisque l’on peut identifier un service et une entreprise.

Pourtant une autre architecture, collant mieux à un web2.0 où tout un chacun est producteur d’informations existe et ne demande qu’à être généralisée.

Le pair à pair pour faire correspondre architecture réseau et architecture logicielle

En effet le pair à pair est une simple technologie, pas un repaire de pirates.  De fait, il est au cœur d’une communauté active de recherche et de développement. Il a déjà prouvé sa fiabilité, et sa capacité de passer à l’échelle qui pose tant problème au modèle économique actuel.

le P2P pour le partage et la réappropriation du contenu donc. Il permet en effet  l’émancipation de multi-nationales qui peuvent être tentées par le contrôler des données et qui ont besoin, par nécessité d’afficher une croissance, de récolter de plus en plus de données, même si les besoins ne sont pas évidents ou éthiques.

Il permet à chaque machine d’ajouter des informations, d’en stocker et d’y accéder de manière décentralisée. Une partie du code des services s’exécute déjà de manière décentralisée sous forme d’Ajax ou équivalent  dans les navigateurs. Pourquoi ne pas faire correspondre l’architecture d’exécution et de stockage de données ?

Sans doute, parce que cela parait aujourd’hui plus compliqué à mettre en œuvre, que le modèle économique correspondant n’est pas suffisamment établi pour que les créateurs de service pensent à l’utiliser et aussi peut-être pour des raisons de performance (il est plus long de faire une requête sur un système P2P que sur un système centralisé). Il reste sans doute des recherches à faire dans ce sens (voir par exemple Defining the technical characteristics of human emancipation) ou bien d’autres.

Quel support matériel pour le P2P ?
Quels sont les machines les mieux placées pour un tel modèle Pair à Pair ? En fait, elles sont placées à l’interface entre les réseaux opérateurs et les terminaux utilisateurs, nos *box et les « routeurs ». Ce sont des ordinateurs, qui comme qualités remarquables qu’ils restent allumés 24h/24 (ne serait ce que pour pouvoir téléphoner) et qu’ils sont à l’entrée (numérique) de nos maisons. Il est possible d’y intégrer un OS ouvert, comme Linux (en fait il y souvent est déjà) ou GroundOS, qui en a interpellé plus d’un en avril.

A ce niveau peut se jouer un conflit d’intérêt. L’opérateur a intérêt à contrôler ce niveau et de proposer ensuite des services de son choix à ses clients. Malheureusement, cela ne peut marcher que si c’est l’utilisateur final qui soit maître des services installés pour pouvoir suivre l’extrême versatilité des utilisateurs qui adoptent en quelques jours/mois un nouveau service (et qui donc en quittent d’autres).

Une infrastructure de type pair à pair serait la bienvenue dans ces équipements à condition qu’elle soit au service de l’utilisateur, ouverte pour pouvoir interconnecter les équipements des différents opérateurs de tous les pays. Dans le cas d’un blocage technique ou stratégique des FAI, l’autre solution sera de laisser un ordinateur allumé dans la maison. Techniquement, cela peut s’envisager, c’est juste dommage de doubler les équipements à ce niveau.

Compatibilité entre pair à pair et logiciel libre.

Le Web a été créé pour mettre et partager de l’information en ligne pas pour faire de l’argent. Or si l’on construit une architecture centralisée, il faut nécessairement des moyens. Ceux-ci peuvent être portés par des institutions (c’est le cas pour le web au tout début). Mais dans un web participatif, chacun peut apporter sa pierre à l’édifice. Imaginez pouvoir dire qu’une partie du projet encyclopédique Wikipédia est hébergé chez vous, que vous êtes un serveur pour Twitter Indenti.ca.  C’est d’ailleurs bien le seul moyen de déployer des applications libres coopératives à grande échelle.  Wikipédia survit mais seule sa notoriété lui permet de lever des fonds par dons. Cela n’est absolument pas généralisable à tout type de service.

Cette approche pourrait enfin permettre une percée du logiciel libre au niveau des applications type web2.0.

Compatibilité entre pair à pair et modèles de marché.

Premier avantage du pair à pair,  cela baisse encore le coût de création d’un nouveau service, puisque l’infrastructure se réduit à l’information, la mise à disposition du logiciel, et un portail pour permettre la connexion aux pairs existants.

Ce qui n’empêche pas d’imaginer un moyen d’imaginer un modèle économique basé sur la mise à disposition d’un service (tout comme les services payants actuels), sur la publicité ou sur la mise à disposition d’un infrastructure  comme eBay. Ainsi Skype est déjà un logiciel pair à pair propriétaire.

La nouveauté réside juste dans le fait qu’il n’est plus indispensable de dégager des fonds pour proposer un nouveau service. Imaginer le partage, la coproduction jusqu’au niveau de l’architecture, c’est le retour au fondement de l’Internet. La technologie actuelle correspondante s’appelle pair à pair, c’est à dire un système distribué symétrique.

In or Out the Cloud ?

L’informatique dans les nuages ! Voici une image qui parait alléchante, mais pourquoi les nuages devraient ils s’arrêter à ma porte ? Pourquoi ne pas pouvoir être moi-même dans les nuages ? Ce léger déplacement de la frontière change l’architecture du tout au tout. Soit ce sera l’avènement d’une architecture centralisée (via des fermes de serveurs) conduisant à des problèmes de contrôle des données de tous par quelques  entreprises, à des usines/fermes consommatrices d’énergie. Soit ce sera une architecture où les équipements permettant l’utilisation des données les hébergeront également et les metront à disposition de tous, et où l’invention et le déploiement de nouveaux services sera possible pour tous.

Comment le web change le monde ?

Un livre de Francis Pisani et Dominique Piotet

J’ai lu, j’ai aimé. Quelques petites choses que j’ai retenu (ou que je veux retenir). Notons que le livre est d’ores et déjà disponible sur le web pour téléchargement.
Les auteurs dépassent les caricatures du web (digital natives, sagesse des foules) pour entrer dans une véritable analyse des phénomènes du web.
Ils prennent ainsi le parti de proposer des nouveaux termes : webacteur et alchimie des multitudes pour une approche plus nuancée de ce qui se tisse sur la toile aujourd’hui. Très riche en références, il replace le web d’aujourd’hui dans l’histoire.

Un must pour une mise à jour de sa culture web 2.0 et au delà

Quelques passages que j’ai plus particulièrement apprécié :

  • le chapitre « de la dynamique relationnelle  » qui aborde le concept des liens de manière transdisciplinaire.
  • la retranscription de la conférence de DAvid Weinberger pour une approche de l’organisation des données et ses conséquences
  • le chapitre « c’est grâce aux hippies » (pp. 117-119) m’a aidé à mieux comprendre où je me positionnai en tant qu’informaticien, merci encore !
  • le chapitre « Digital Literacy » est très clair et pose bien les enjeux de l’éducation au web. A conserver la citation de European Commission, Directorate-General for Education and Culture,
    ELearning : Better eLearning for Europe, Luxembourg. Office for Official
    Publications of the European Communities, 2003. Cité par Olivier Le
    Deuff dans son article « La culture de l’information : quelles “littératies”
    pour quelles conceptions de l’information ? », VIe Colloque ISKO-France
    2007, 7 et 8 juin 2007, IUT de l’Université Paul Sabatier, Toulouse. :
    la digital literacy devient vite une des conditions de la créativité, l’innovation et l’esprit
    d’entreprise. Sans elle, les citoyens ne peuvent ni pleinement participer dans la société, ni acquérir les compétences et les connaissances nécessaires pour vivre au 21e siècle
  • Le chapitre « entreprise liquide » met bien en évidence les tensions entre les utilisateurs (demandeurs d’outils souples et ubiquitaires) et les Directions Informatiques ancrées dans leur gestion des données et leur sécurité. Un problème central des données entreprises réside dans leur manque d’accessibilité pour exploitation (outils de recherche et surtout liens entre les données). Cela me rappelle la remarque d’un collègue un jour où notre responsable nous demandait si nous utilisions la page d’accueil de notre département :  » cela dépend, si Google me l’indique pourquoi pas … »
  • le renouvellement des médias est évidemment abordé. Le rôle du journalisme est évidemment modifié, il n’est plus le porteur de la vérité, mais un passeur, et un formateur.Il me semble que le métier de l’enseignant doit ou devra également se recomposer sur le même mode d’approche.
  • Sur le modèle économique, on sent les auteurs dubitatifs. Mais est-ce qu’il y a vraiment un modèle économique pour le web ? Je pense faire un post d’ici peu, les chose semblent bouger dans cet axe en ce moment
  • Et finalement le chapitre sur l’évolution du web, qui sera notamment plus social (espérons le), plus Graphe Global, plus interopérable, plus mobile (le terme proposé est mobiquité). La question final sur le web participatif permettant de changer le monde me pose question. Est-on VRAIMENT en train de changer le monde ? Y-a-t-il une opportunité ? Cela me rappelle le mouvement des radios libres en 81 qui a accouché de SkyRock et al. D’autres font remarquer que la politique sur Internet manque de prise dans le réel (billet de Famablog qui semble disparu). Par contre le mouvement pirate suédois montre que cela peut changer

Petite moisson de sites intéressants :

  • des classiques : digg pligg
  • twittervision : pour voir les posts twitter de manière géographique. Remarque les dépôts tumblr sur http://www.tumblr.com/map marchent mieux…
  • wefi : pour trouver un point wifi et des amis
  • Innocentive et crowdspirit pour faire de l’innovation (déjà vu dans le fameux livre wikinomics, à lire lui aussi)

Des notes de lecture sur ce bookin :
http://blog.kinoa.com/2008/06/17/comment-le-web-change-le-monde-note-de-lecture/

%d blogueurs aiment cette page :