Internet des Objets

Daniel Kaplan en parle enfin dans son 3ème opus sur le sujet :

Repenser l’internet des objets (3/3) : Industrialiser l’internet ou internetiser l’industrie ?

Il s’agit bien des objets qui ont une vie numérique depuis l’idée jusqu’au démantèlement (même si ce n’est pas abordé dans l’article, le fait d’avoir à disposition toutes les infos nécessaires permet de l’envisager), avec une interrogation possible durant sa vie opérationnelle. Un objet  interopérable, ouvert, à vocation collaborative.

« Un bon spime est à la fois plus complexe que ce qu’exigerait son usage premier (”trop” riche en fonctions) et jamais fini. Il se présente comme “un projet technologique ouvert dont l’évolution est déléguée à ses utilisateurs finaux.” » Cela ressemble furieusement à tous ces services « web2.0 » que l’on s’approprie, que l’on détourne pour son usage personnel.

Autant l’ article précédent me faisait penser au web1.0 (le contenu statique, contrôlé par quelques uns), voire la tentative de l’industrie d’utiliser Internet comme un réseau fermé équivalent à ceux qu’elle a l’habitude de déployer, autant dans cet article on est bien dans la dimension participative dans les objets. Les deux modèles cohabiteront sans doute, et correspondent à des usages différents.

En termes d’innovation, ce qui est important c’est bien l’Internet des objets au sens ouverture, participation, collaboration, données exploitables et liens possibles. Ce que nous en ferons ? Nous verrons bien, de nouveaux usages verront le jour. En plus cela permet l’action locale dans un monde global. Et si cela conduit à améliorer la planète et le quotidien, tant mieux !

Y-a-t-il des clubs de spimeurs en France ?

Et décidément, comment vont évoluer les métiers de l’ingénierie et de l’informatique dans ces changements annoncés ?

Publicités

P2P Foundation

Modèle économique du web : une bonne raison pour réhabiliter le P2P

Faiblesses du modèle économique actuel du web2.0

Pisani et Piotet le disent dans leur livre, le modèle économique basé sur le contenu généré par les foules n’a pas trouvé son modèle économique. Et de fait, le problème est bien que pour exister, il faut multiplier le nombre d’utilisateurs (par millions de préférence) , que pour attirer ceux-ci il faut proposer des services gratuits.

Les coûts liés à l’architecture actuelle (des serveurs centralisés sous forme de fermes d’ordinateurs) peuvent alors rapidement devenir importants en matériel et en électricité. Et les recettes sont pour le moins incertaines, puisque seul Google réussit à vraiment entrer de l’argent via les publicités, et encore pas pour tous les services (voir le déficit abyssal de YouTube par exemple).

L’article La bande passante ne se trouve pas sous les sabots d’un cheval ne dit pas autre chose, l’inflation de données coproduites et gratuites est indispensable pour la croissance de ces entreprises, tout en étant leur pire talon d’Achille.  Mais les commentaires de ses lecteurs sont intéressants : en résumé, la solution passe par le P2P ou pair à pair (le concept repoussoir de Minitel2.0  y est même cité).

En effet, deux solutions lorsque l’équilibre n’est pas garanti :

  • Soit augmenter les recettes ce qui ne pourra au mieux marcher que pour quelques géants, avec les problèmes de monopoles et de contrôle de l’information que cela posera (qui de fait se pose déjà) ;
  • Soit diminuer les dépenses, c’est à dire remplacer ces fermes de serveurs par un système moins coûteux et moins énergivore.

Et de fait, il y a pas mal de buzz autour de cette idée de développer le pair à pair ou P2P comme support au développement de services 2.0. Voyons pourquoi et quels avantages y trouver.

Internet :  une architecture décentralisée

Au départ, Internet a été prévu pour être totalement décentralisé (pour pouvoir continuer à fonctionner même en cas d’attaque atomique massive, c’était la guerre froide en ce temps-là). Au moment où le web a démarré, les ordinateurs sont devenus asymétriques, d’un coté les serveurs, de l’autre les clients. Cela correspondait bien à l’organisation du web 1.0, avec des serveurs de données institutionnels et des utilisateurs privés. Et de fait l’architecture d’Internet proposée par les FAI colle à ce modèle, ce que Benjamin Bayart a comparé au Minitel2.0. Mais cette architecture reste bien lié à une conception 1.0 du web. Autre défaut de ce modèle recentralisé, le système est devenu bien moins fiable.

Avec l’avènement du web2.0, les rôles ont glissés, l’utilisateur est devenu acteur ou webacteur, fournisseur de données, la production de données est partout, mais leur traitement reste centralisé. Parce que c’est l’habitude, parce que l’architecture client-serveur est plus facile à mettre en place, bien maîtrisée, et permet de mettre en avant un modèle économique, puisque l’on peut identifier un service et une entreprise.

Pourtant une autre architecture, collant mieux à un web2.0 où tout un chacun est producteur d’informations existe et ne demande qu’à être généralisée.

Le pair à pair pour faire correspondre architecture réseau et architecture logicielle

En effet le pair à pair est une simple technologie, pas un repaire de pirates.  De fait, il est au cœur d’une communauté active de recherche et de développement. Il a déjà prouvé sa fiabilité, et sa capacité de passer à l’échelle qui pose tant problème au modèle économique actuel.

le P2P pour le partage et la réappropriation du contenu donc. Il permet en effet  l’émancipation de multi-nationales qui peuvent être tentées par le contrôler des données et qui ont besoin, par nécessité d’afficher une croissance, de récolter de plus en plus de données, même si les besoins ne sont pas évidents ou éthiques.

Il permet à chaque machine d’ajouter des informations, d’en stocker et d’y accéder de manière décentralisée. Une partie du code des services s’exécute déjà de manière décentralisée sous forme d’Ajax ou équivalent  dans les navigateurs. Pourquoi ne pas faire correspondre l’architecture d’exécution et de stockage de données ?

Sans doute, parce que cela parait aujourd’hui plus compliqué à mettre en œuvre, que le modèle économique correspondant n’est pas suffisamment établi pour que les créateurs de service pensent à l’utiliser et aussi peut-être pour des raisons de performance (il est plus long de faire une requête sur un système P2P que sur un système centralisé). Il reste sans doute des recherches à faire dans ce sens (voir par exemple Defining the technical characteristics of human emancipation) ou bien d’autres.

Quel support matériel pour le P2P ?
Quels sont les machines les mieux placées pour un tel modèle Pair à Pair ? En fait, elles sont placées à l’interface entre les réseaux opérateurs et les terminaux utilisateurs, nos *box et les « routeurs ». Ce sont des ordinateurs, qui comme qualités remarquables qu’ils restent allumés 24h/24 (ne serait ce que pour pouvoir téléphoner) et qu’ils sont à l’entrée (numérique) de nos maisons. Il est possible d’y intégrer un OS ouvert, comme Linux (en fait il y souvent est déjà) ou GroundOS, qui en a interpellé plus d’un en avril.

A ce niveau peut se jouer un conflit d’intérêt. L’opérateur a intérêt à contrôler ce niveau et de proposer ensuite des services de son choix à ses clients. Malheureusement, cela ne peut marcher que si c’est l’utilisateur final qui soit maître des services installés pour pouvoir suivre l’extrême versatilité des utilisateurs qui adoptent en quelques jours/mois un nouveau service (et qui donc en quittent d’autres).

Une infrastructure de type pair à pair serait la bienvenue dans ces équipements à condition qu’elle soit au service de l’utilisateur, ouverte pour pouvoir interconnecter les équipements des différents opérateurs de tous les pays. Dans le cas d’un blocage technique ou stratégique des FAI, l’autre solution sera de laisser un ordinateur allumé dans la maison. Techniquement, cela peut s’envisager, c’est juste dommage de doubler les équipements à ce niveau.

Compatibilité entre pair à pair et logiciel libre.

Le Web a été créé pour mettre et partager de l’information en ligne pas pour faire de l’argent. Or si l’on construit une architecture centralisée, il faut nécessairement des moyens. Ceux-ci peuvent être portés par des institutions (c’est le cas pour le web au tout début). Mais dans un web participatif, chacun peut apporter sa pierre à l’édifice. Imaginez pouvoir dire qu’une partie du projet encyclopédique Wikipédia est hébergé chez vous, que vous êtes un serveur pour Twitter Indenti.ca.  C’est d’ailleurs bien le seul moyen de déployer des applications libres coopératives à grande échelle.  Wikipédia survit mais seule sa notoriété lui permet de lever des fonds par dons. Cela n’est absolument pas généralisable à tout type de service.

Cette approche pourrait enfin permettre une percée du logiciel libre au niveau des applications type web2.0.

Compatibilité entre pair à pair et modèles de marché.

Premier avantage du pair à pair,  cela baisse encore le coût de création d’un nouveau service, puisque l’infrastructure se réduit à l’information, la mise à disposition du logiciel, et un portail pour permettre la connexion aux pairs existants.

Ce qui n’empêche pas d’imaginer un moyen d’imaginer un modèle économique basé sur la mise à disposition d’un service (tout comme les services payants actuels), sur la publicité ou sur la mise à disposition d’un infrastructure  comme eBay. Ainsi Skype est déjà un logiciel pair à pair propriétaire.

La nouveauté réside juste dans le fait qu’il n’est plus indispensable de dégager des fonds pour proposer un nouveau service. Imaginer le partage, la coproduction jusqu’au niveau de l’architecture, c’est le retour au fondement de l’Internet. La technologie actuelle correspondante s’appelle pair à pair, c’est à dire un système distribué symétrique.

In or Out the Cloud ?

L’informatique dans les nuages ! Voici une image qui parait alléchante, mais pourquoi les nuages devraient ils s’arrêter à ma porte ? Pourquoi ne pas pouvoir être moi-même dans les nuages ? Ce léger déplacement de la frontière change l’architecture du tout au tout. Soit ce sera l’avènement d’une architecture centralisée (via des fermes de serveurs) conduisant à des problèmes de contrôle des données de tous par quelques  entreprises, à des usines/fermes consommatrices d’énergie. Soit ce sera une architecture où les équipements permettant l’utilisation des données les hébergeront également et les metront à disposition de tous, et où l’invention et le déploiement de nouveaux services sera possible pour tous.

%d blogueurs aiment cette page :