OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Faire publier un papier… scientifique http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/ http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/#comments Wed, 20 Apr 2011 08:20:40 +0000 Roud http://owni.fr/?p=34613 Il y a beaucoup de choses que l’on apprend sur la longueur dans la recherche, avec l’expérience. Mais ce que je trouve tout à fait étonnant, particulièrement dans le paysage français, est qu’on n’apprend pas ou peu les petits trucs pour faire publier un papier. Oh bien sûr, le contenu scientifique reste l’essentiel, mais, même s’il est très codifié et très formel, le processus de revue par les pairs n’a rien d’un processus pur et éthéré, il y a une forte composante humaine qui compte. Oublier cela peut mener un papier à sa perte. Je n’ai pas la prétention de faire la leçon à qui que ce soit, mais voici quelques éléments (largement de bon sens) glanés sur ma propre expérience, en tant que publiant et referee (ndlr: chercheur contacté par une revue scientifique pour lire et commenter les articles proches de son champ de recherche avant la publication), ainsi que sur la base d’observations de mes chefs et collègues très très éminents. Encore une fois, n’hésitez pas à ajouter vos propres conseils ! (et à me dire si vous êtes d’accord ou pas)

Faites relire par vos amis

Le processus de revue par les pairs dans le cadre du journal n’est que la fin de l’histoire, pas le début. Avant de soumettre un papier, il est très important de lui faire subir un cycle de revue informelle par des collègues compétents et des amis. Le genre d’amis qui peuvent vous dire librement si votre papier est bullshit ou si au contraire c’est le papier du siècle. Cela vous aidera à retravailler le papier pour expliquer les points imprécis, et à bien calibrer la revue où le publier.

Networkez

De la même façon, il est très important de bien se familiariser avec le réseau plus étendu de collègues à même de lire votre papier. Allez en conf, donnez des séminaires, échangez . Ces collègues sont autant de referees potentiels, on a toujours plus de scrupules à détruire les papiers d’un collègue qu’on trouve sympathique , et parfois les communautés sont si petites qu’on en a vite fait le tour.

Choisissez bien l’éditeur scientifique

Un éditeur a littéralement un pouvoir de vie ou de mort sur un papier. Il peut même parfois passer outre l’avis des referees s’il pense que votre papier a été injustement critiqué. Là encore, tout le côté humain et informel en amont pour connaître les éditeurs est important. J’ai vu des big shots passer carrément des coups de fil à des éditeurs qu’ils connaissaient depuis de nombreuses années pour faire passer des papiers.

Le referee a toujours raison…

Si un referee donne un conseil, faites le maximum pour satisfaire ses envies. D’une part, il se sentira valorisé d’être écouté, d’autre part, cela fera un point de moins critiqué. La dernière chose que vous voulez faire, c’est énerver un referee. J’ai vu des auteurs se tirer littéralement des balles dans le pied et condamner des papiers largement publiables en prenant les referees (en l’occurrence moi) pour des imbéciles. Par exemple, si un referee vous demande de mieux expliquer tel ou tel point, réécrivez toute la partie correspondante, travaillez dessus, montrez de la bonne volonté. Trop souvent, les auteurs se contentent de quelques modifs cosmétiques, histoire de noyer le poisson.

… sauf quand il a tort

Parfois, on n’a pas le choix, il faut se payer un referee pour faire passer un papier. Si un referee est vraiment trop mauvais, vous devez convaincre l’éditeur qu’il ne doit pas tenir compte de son avis. C’est un fusil à un coup. Si ça marche, c’est bingo, si ça ne marche pas, vous pouvez dire adieu à la publication dans ce journal. Ceci doit être fait sur des critères purement scientifiques, ce n’est possible que si le referee a fait la preuve dans sa revue qu’il ne comprenait rien à l’histoire. Ça m’est arrivé une fois dans un papier : un referee a rejeté mon modèle au motif qu’il était linéaire, alors qu’il était tout à fait non linéaire. Le papier, rejeté dès le premier round, a été finalement resoumis et accepté.

Changez de revue

Tout le monde ne sera pas nécessairement d’accord avec ça, mais un point qui me frappe chez certains est leur insistance à vouloir faire passer un papier donné dans une revue donnée. Je peux un peu comprendre quand il s’agit d’une revue majeure (comme Nature ou Science), moins quand il s’agit d’une revue moins prestigieuse. Le processus de revue par les pairs est long et douloureux, et, dans votre carrière vous serez jugés en partie sur votre nombre de papiers (en ce sens, l’intérêt du big shot établi qui veut son Science pourra parfois s’opposer à celui de l’étudiant qui doit publier pour partir au plus vite). Vous ne pouvez pas vous permettre de passer un an à espérer la publication d’un papier dans une revue donnée, avec le risque de vous faire jeter après une longue lutte avec les referees, vous avez votre recherche à faire à côté. Il y a suffisamment de revues pour publier votre recherche, et si elle est de qualité, ça finira bien par passer dans une revue pas trop mauvaise. Bref, si ça sent le roussi et devient trop compliqué, passez à la revue suivante, ou ciblez des stratégies alternatives – type Plos One- et comptez sur le processus de post-peer-review pour valoriser ce papier

Utilisez vos chefs

Particulièrement quand vous êtes étudiant ou post-doc, tout ce processus de réseautage et d’influence ne vous sera pas familier. Ce sera à votre chef de faire ce travail, observez, apprenez, et exploitez-le. C’est une partie importante de son travail, rappelez-lui gentiment.

Utilisez le post-peer-review

La publication n’est pas la fin de l’histoire, faites de la pub pour votre recherche, parlez-en en séminaire, mettez vos publis en valeur, si quelqu’un fait des recherches similaires, vous pouvez même vous permettre de lui envoyer votre papier. Ce processus aidera la publication du prochain !

>> Article initialement publié sur Matières Vivantes.

>> Photos Flickr CC PaternitéPartage selon les Conditions Initiales par Sam Hames et CC-NC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par widdowquinn.

]]>
http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/feed/ 50
Publish. Wait. Spray. Spray again http://owni.fr/2010/06/15/publish-wait-spray-spray-again/ http://owni.fr/2010/06/15/publish-wait-spray-spray-again/#comments Tue, 15 Jun 2010 17:46:09 +0000 Bibliobsession http://owni.fr/?p=18811

J’écrivais ça il y a deux ans et c’est toujours vrai : “Tenir un blog est très frustrant ! Pourquoi ?  Parce que cette forme est intrinsèquement centrée sur “le billet le plus récent”.  Les autres disparaissent dans l’abîme des archives... Il faut donc trouver des moyens de naviguer dans la longue traîne des anciens billets. Ceci est d’autant plus important que ce blog traite des bibliothèques, où certes une actualité existe, mais elle n’est pas forcément obsolète très vite… :-)

Il me semble donc essentiel de pouvoir proposer des parcours de lectures dans les divers thèmes que j’ai abordés depuis plus de deux ans. J’ai donc pris le temps de mettre des tags (ou d’indexer pour les puristes, avec une liste validée) pour l’ensemble des 750 articles de bibliobsession (voir ci-contre, le nuage)”. Une autre manière efficace de susciter des parcours est l’utilisation du plugin Linkwithin qui favorise les rebonds à la fin de chaque billet.

Sauf que les tags et les rebonds c’est utile pour une navigation lorsqu’on est déjà sur le site. Or le web d’aujourd’hui est un web des flux, un web en temps réel. Mais qu’est-ce que ce “web en temps réel” peut bien vouloir dire ?

  • Est-ce le fait d’accéder à aux mêmes informations en même temps que d’autres gens ? Non, ça c’est l’audience, le buzz, l’actualité. La fonction de mise à l’agenda propre aux médias existait bien avant le web (inventée en 1972 !). Même si les sources, les outils, les dispositifs et les acteurs changent, la logique d’un champ d’actualités par nature saturé et son corolaire, la fonction d’agenda sont toujours là.
  • Est-ce le fait de pouvoir échanger en temps réel ? Non, ça c’est le clavardage, et c’est pas nouveau. Bon c’est vrai que Twitter a apporté quelque chose de ce point de vue, mais Twitter, ce n’est pas l’ensemble du web…
  • Est-ce le fait de pouvoir d’envoyer en temps réel et en situation de mobilité des informations avec d’autres ? Peut-être, mais je ne vois pas en quoi ce temps qui serait plus réel qu’avant… tout ça ne serait-il qu’un effet de masse ?
  • Est-ce le fait que ces informations soient indexées immédiatement dans les moteurs de recherche ? Peut-être, mais alors pourquoi faire de tout ça une tendance alors qu’il ne s’agit que d’une accélération de quelques heures du passage des robots d’indexation… D’ailleurs, Google (et Bing aussi) a annoncé il y a un moment déjà qu’il indexe Twitter “en temps réel”.
  • Est-ce le fait de publier de l’information sur le web facilement et rapidement ? Non, ça existe depuis que les outils du web 2.0 existent, je vois pas ce que Twitter change par rapport au fait d’appuyer sur le bouton “publier” d’un blog…

Le web en temps réel… pas très clair comme expression ! Mon hypothèse : le “temps réel” du web indique un double sentiment :

  • l’accélération de la vitesse à laquelle s’échange l’information, notamment en situation de mobilité
  • l’accentuation de la pression exercée par le nouveau au détriment de l’ancien

C’est ce qui fait dire à Paul Virilio que nous vivons dans une tyrannie du temps réel (via Narvic) ce qui me semble inutilement catastrophiste et pessimiste (c’est le cas de le dire pour Virilio) là où les technologies sont des pharmaka, c’est à-dire à la fois le poison et le remède et où il nous faut mettre en œuvre une pharmacologie de l’attention. Il nous faut je crois proposer  des sérendipités permettant de mettre en avant des contenus pertinents, des trouvailles, des pépites avec la part de subjectivité que cela comporte, renforcer les signaux faibles que sont les contenus dérivés des fonds des bibliothèques enfermés dans le web caché ou (même combat) dans un web hors flux.

Alors d’où vient cette omniprésence de l’actualité dans les flux ? À mon avis, en grande partie du fait suivant : sur les médias sociaux on assimile trop souvent la publication et la propulsion. Propulser écrit Thierry Crouzet, c’est bien plus que diffuser :

Comment s’y prennent les propulseurs ? Ils se connectent les uns avec les autres. Ils se passent le mot de bouche à oreille. Ils se passent l’info de la main à la main. « On propulse en se connectant. On se connecte en propulsant. » Pour propulser, il faut pouvoir transmettre à des destinataires, être connectés avec eux, être un des fils qui sous-tend le Flux, une ligne de vie. Il ne suffit pas d’injecter des contenus dans le Flux et de les laisser vivre seuls. Ils auraient toutes les chances de se scléroser. Mais pour se connecter, taper sur l’épaule de quelqu’un n’a pas beaucoup d’effet. Mieux vaut lui apporter quelque chose, au moins un bonheur passager. « Tiens, lis ça. C’est absolument génial. »

Un service comme Twitterfeed incite en effet à l’assimilation entre publication et propulsion puisqu’il pousse un flux RSS dans Twitter. Il agrège au flux global des nouveaux items d’un flux RSS, en temps réel. L’analogie est parfois poussée à l’extrême au point que certains abandonnent carrément leur agrégateur au profit du filtre social qu’est Twitter. Diffusion de fils RSS et rediffusion en temps réel de veilles à partir des agrégateurs avec un outil comme ping.fm (Read it, feed it) voilà qui explique que Twitter soit considéré comme le champion du temps réel… au détriment de la longue traîne des contenus.

Pourtant, si l’on accepte de séparer publication et propulsion, la question qui se pose n’est plus seulement comment je m’organise pour publier de l’information fraîche pour la mettre dans le flux, ni même sur quels canaux je dissémine mes contenus, mais bien COMMENT et QUAND je propulse dans les flux des informations pertinentes, éventuellement déjà publiées, pour m’adresser à une audience et engager des conversations.

Mais pourquoi est-ce aussi important important de rester dans le Flux ? Thierry Crouzet écrit :

Collectivement, nos amis forment le comité de rédaction de notre média personnalisé. Par le passé, nous avions tous le même rédacteur en chef. C’est terminé. Plus personne ne lit le même journal. La diversité des propulseurs garantit la diversité des informations qui nous parviennent.

Si l’on ajoute à cela qu’en mars dernier pour la première fois sur une semaine complète Facebook a devancé Google en trafic, devenant ainsi le site web le plus visité aux États-Unis, nous sommes en quelque sorte appelés à devenir des mini-médias à fabriquer notre mise à l’agenda pour le public de nos amis (ou followers).

Il devient dès lors essentiel de désynchroniser publication et propulsion et de proposer des Re-flux, manière de réinjecter des contenus en différé sur le front du temps réel (belle idée non ?). C’est une manière de se jouer de la pression de l’actualité sur le temps réel présent.

Ok c’est bien joli mais comment faire ? Deux écoles existent pour remettre dans le flux (i.e. principalement Twitter et Facebook) d’anciens billets : de manière automatisée, ou pas. Grâce à Fabien (merci !), j’ai découvert ce plugin Wordpress : tweet old post qui permet de propulser vers Twitter un ancien billet de manière automatisée. Voilà l’interface de configuration :

Il est possible de définir l’intervalle de publication, l’âge maximum des billets remis en scène et leur catégorie. Attention, il ne faut pas abuser de ce genre d’outil… au risque de perdre la confiance de vos followers si vous proposez une fréquence trop importante. Il s’agit là d’un subtil équilibre qui vise à provoquer la sérendipité sans tomber dans un recyclage excessif. Ainsi, un tel dispositif ne peut fonctionner que sur un volume de billets importants et l’on pourrait même imaginer de consacrer une catégorie à ces billets re-publiables parce que DEliés (ou déliables) d’une actualité dominante. N’oublions pas non plus qu’il s’agit toujours de concevoir Twitter et Facebook, non pas seulement comme des canaux de diffusion, mais comme des outils interactifs. De manière générale, s’il n’y avait qu’un seul billet incontournable à citer sur les usages professionnels de Twitter, ce serait celui-ci. Loic Hay a publié un intéressant diagramme trouvé chez Useo qui indique bien les différents degrés d’engagements qui peuvent être mis en œuvre :

Si l’on considère qu’une diffusion efficace de contenus rédigés est un préalable indispensable à une stratégie d’engagement permettant de dialoguer avec des utilisateurs, alors il s’agit alors de trouver des outils permettant par exemple de programmer des tweets. Pourtant tous ces outils ne sont pas automatisés et obligent à programmer chaque tweet, ce qui est pour le moins fastidieux. Je n’en ai trouvé aucun qui permette de déterminer les meilleurs intervalles et les meilleurs moments pour pousser des billets en fonction de l’analyse de l’activité des followers donc de la probabilité qu’ils accèdent à l’information… (si vous en connaissez, je suis preneur). L’outil statistique le plus abouti que j’ai trouvé permet bien de savoir QUI vous RT le plus mais pas QUAND : il s’appelle Twoolr. Tout au plus ce logiciel, Tweetadder, permet de programmer des tweets aux heures de fréquentation du réseau. Avec Tweetoclock, vous pourrez savoir pour une personne le meilleur moment pour la contacter.

Alors que les bibliothèques investissent beaucoup de temps à rédiger des contenus sur leurs sites/blogs/univers Netvibes, si elles veulent vraiment construire des audiences et engager des conversations elles doivent travailler AUSSI sur la propulsion des contenus en différé.

Pour ma part, j’ai donc choisi d’utiliser tweet old post et d’indiquer les re-publications avec le tag : #REflux. Testé depuis plusieurs jours, la méthode est efficace et permet de pousser des billets vers le haut de la longue traîne de la consultation de mon site, tout en glanant des commentaires et des RT. Combiné à ping.fm, il est possible d’automatiser une publication simultanée sur Twitter et sur Facebook grâce à l’ajout d’un tag #fb.

Alors que la synchronisation de données les plus récentes dans les nuages est une sorte de Graal, on peut susciter la sérendipité et subvertir la forme même du blog en re-publiant d’anciens billets dans les flux communautaires. Sortir des rails de l’actualité, apporter des pépites, du recul et de la perspective en sérendipité dans le flux voilà pourquoi il me semble qu’il faut différer la propulsion de contenus dans le web du temps réel.

Billet initialement publié sur Bibliobsession ; image CC Flickr Stéfan

]]>
http://owni.fr/2010/06/15/publish-wait-spray-spray-again/feed/ 0
Internet du futur : vers un “cahier des charges” http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/ http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/#comments Wed, 22 Jul 2009 15:03:47 +0000 Hubert Guillaud http://owni.fr/?p=2055

“Il est essentiel que le réseau ‘universel’ qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation” rappelle la réponse à la [1] consultation du secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique sur l’internet du futur que publient la Fing, Silicon Sentier, l’internet Society France et plusieurs personnalités de l’internet français.

Une réponse qui pointe du doigt le danger qu’il y aurait de vouloir transformer l’internet sans comprendre comment lui-même nous a transformé.

Introduction

En réponse à la consultation publique sur l’internet du futur organisée par le secrétariat d’Etat chargé de la Prospective et du développement de l’économie numérique, la Fing,  Silicon Sentier et l’ Isoc France, ainsi qu’un certain nombre d’individualités marquantes de l’internet français, ont choisi de produire ensemble une contribution publique.

Ce groupe se compose pour l’essentiel de non-techniciens, qui ont néanmoins de l’internet un usage quotidien et professionnel pour publier, innover, produire.

Par conséquent, notre contribution propose plutôt les éléments d’un “cahier des charges” de l’internet de demain, envisagé par des “grands utilisateurs”, qu’une série de recommandations techniques précises.

Les questions posées par l’internet et ses usages ne trouvent certes pas toutes leurs réponses dans l’architecture et les technologies du réseau lui-même. Beaucoup de réponses relèveront des applications et des services, des utilisateurs et de leurs organisations, de la régulation ou de l’écologie des usages. Dans le cadre de cette consultation, nous avons choisi de nous focaliser sur ce que l’on devait demander au réseau internet – et par symétrie, sur ce qu’il vaudrait mieux ne pas lui demander.

C’est pour mieux explorer aussi ce second terme de l’alternative – ce que l’on ne devrait pas demander au réseau – que nous avons décidé d’évacuer (pour l’instant du moins) des infrastructures d’applications aussi importantes que le web. Cela nous aura notamment permis de repartir de questions trop rarement posées : qu’attendons-nous vraiment de l’internet ? Que sommes-nous prêts à sacrifier pour l’obtenir ?

Nous espérons que ce court texte apportera un éclairage utile et complémentaire des autres contributions.

Il demeure ouvert aux critiques, commentaires et enrichissements sur le site  http://internetdufutur.wordpress.com.

Daniel Kaplan, Jean-Michel Cornu et Hubert Guillaud,  Fing
Marie-Vorgan Le Barzic et Marie-Noéline Viguié,  Silicon Sentier
Gérard Dantec et Laurent Ferrali, Isoc France

Sommaire
1. A quels problèmes s’agit-il de répondre ?
2. Des non-dits qui obscurcissent le débat
3. Efficience ou universalité : au fond, que demande-t-on à l’internet ?
4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur
5. Conclusion, les trois priorités
Liste des participants

1. A quels problèmes s’agit-il de répondre ?

Si tant de gens, dans tant de pays, réfléchissent à “l’internet du futur”, ce doit être que celui-ci rencontre des problèmes, ou qu’il devrait en rencontrer dans l’avenir. Pour envisager les directions à prendre, il est important de recenser ces problèmes, et d’en mesurer le caractère plus ou moins critique. Il faut aussi faire la part des problèmes réellement liés à la technique, de ceux qui proviennent de l’organisation de l’internet ou de ses acteurs.

Et pourtant, il marche !
Car le plus étonnant, au fond, est que pour la plupart de ses usages et de ses utilisateurs, l’internet fonctionne assez bien alors que son architecture fondamentale a fort peu changé en près de 30 ans.

Cela se fait certes au prix d’une grande complexité, distribuée à tous les niveaux : multitude d’acteurs intervenant à tous les échelons du réseau – jusqu’aux administrateurs des réseaux d’entreprises et aux utilisateurs (gestion des adresses, sécurisation, mises à jour diverses, etc.) ; multiplication des adaptations destinées à permettre au réseau d’accepter de nouveaux usages et de nouveaux utilisateurs ; “patches” liés à la sécurité, la qualité de service, la mobilité, etc. Mais il demeure que l’exceptionnelle capacité d’adaptation de l’internet, et l’extraordinaire diversité des utilisateurs et des usages pour lesquels il constitue aujourd’hui une base satisfaisante, doivent conduire à approcher toute transformation significative avec un grand discernement.

Un problème de dimension
L’une des principales difficultés que rencontre l’internet d’aujourd’hui est celle de suivre la croissance du nombre d’appareils connectés. Celle-ci traduit non seulement la croissance du nombre d’utilisateurs, celle du nombre de “terminaux” par utilisateur (beaucoup d’appareils électroniques s’équipant d’une connexion réseau), mais aussi, la multiplication d’objets et d’espaces “communicants”.

L’insuffisance du nombre d’adresses IP que fournit l’actuel protocole IPv4 est manifeste. Diverses mesures ont jusqu’ici permis de gérer la pénurie, au prix d’une certaine fragmentation du réseau et sans doute, de l’impossibilité de penser certains usages (il est par exemple impossible d’accéder directement à chaque objet connecté par une adresse propre indépendante des applications, ce qui rend difficile son utilisation comme “serveur”).

L’inflation des tables de routage pourrait également finir par créer des phénomènes d’engorgement. Malgré les promesses des générations successives de routeurs, l’évolution technologique ne semble pas pouvoir répondre à elle seule à cette problématique de croissance.

Des insuffisances pour des usages “critiques”
L’internet pose des problèmes à des organisations ou des types d’échanges pour lesquels le réseau, ou bien telle ou telle de ses caractéristiques, ont un caractère critique – au sens où si une fonction donnée n’est pas remplie, l’échange devient impossible ou sérieusement problématique :

  • L’internet ne propose pas aisément une sécurisation de bout en bout des échanges. Techniquement, elle supposera que tous les intermédiaires assurent bien le même service d’une façon compatible les uns avec les autres. Or, l’internet étant un réseau de réseaux indépendants les uns des autres, une part majeure de la sécurité relève de fait des utilisateurs et des applications. Notons qu’aujourd’hui, dans la plupart des cas, les opérateurs de réseaux comme les utilisateurs mettent très insuffisamment en œuvre les technologies et les démarches de sécurité élémentaires et disponibles.
  • Reposant sur un principe d’obligation de moyens (”best effort”) et non de bonne fin, l’internet peut difficilement être utilisé pour des échanges ayant besoin d’un niveau garanti de “qualité de service”, en termes de fiabilité, de débit, de latence, etc. On pense, par exemple, à des usages pour lesquels le temps réel est essentiel, parmi lesquels la vidéo haute définition, mais aussi des applications destinées à synchroniser de manière précise différents dispositifs (applications industrielles, de sécurité, scientifiques, etc.). Là encore, des solutions existent, mais il est difficile de garantir qu’elles sont mises en œuvre, et de la même façon, de bout en bout et au travers de tous les réseaux.

Une difficulté à accomoder de nouvelles demandes
En l’état, malgré certaines adaptations, l’internet gère mal la mobilité. Il se prête également mal à la multidiffusion d’un signal (”multicast”).

Des difficultés d’ordre économique et social
Enfin, l’internet suscite ou rend manifestes des difficultés dont le caractère n’apparaît pas technique au premier abord, mais dont on pressent bien – pour de bonnes ou de mauvaises raisons – que certaines solutions pourraient passer par des évolutions du réseau lui-même :

  • L’internet est difficile à contrôler, mais il n’est pas non plus si incontrôlable qu’on le dit. Le pouvoir iranien n’est pas si mal parvenu à restreindre les communications entre ses citoyens, et il a sérieusement raréfié leurs interactions avec le reste du monde. On ne peut tout contrôler tout le temps, mais force est de constater que dans de nombreux pays, on parvient assez bien à censurer l’internet, ou au moins retrouver la trace de ceux qui passent au travers des mailles du filet.
  • Le modèle économique de l’internet, comme réseau, apparaît comme fragile. A titre d’exemple, la rentabilité des fournisseurs d’accès s’obtient aujourd’hui, soit en faisant financer les gros utilisateurs par les petits (comme nous le verrons plus loin), soit en s’étendant vers d’autres services, ce qui peut poser des problèmes de concurrence ou fragiliser des secteurs (comme ceux des contenus) dont la rentabilité s’avère déjà problématique.
  • La gestion de l’identité sur l’internet n’est guère satisfaisante. Alors que le réseau est devenu, pour beaucoup de gens, un espace d’action et de transaction quotidien, l’identité numérique demeure généralement liée aux conditions physiques et contractuelles d’accès au réseau ou à un service. Pour la plupart des individus, changer de fournisseur d’accès, de service de messagerie ou de réseau social signifie perdre son adresse, ses contacts, bref, une bonne part de son identité.
    L’identité numérique n’est en fait ni réellement protégée (il y a beaucoup de moyens de savoir qui se cache derrière un pseudo, une adresse IP), ni réellement certifiée (on peut penser savoir à qui l’on a affaire, mais sans en être sûr).
  • Notre vie quotidienne, notre vie économique, certains aspects essentiels du fonctionnement de nos sociétés, deviennent très dépendants vis-à-vis de l’internet. Mais celui-ci n’assume pas vraiment la responsabilité qui devrait accompagner cette dépendance : sauvegarde et préservation des informations dans le temps ou au contraire, effacement sûr des informations, résilience en cas de problème, etc.

Il y a donc beaucoup de bonnes raisons de s’intéresser à l’internet du futur, voire de tout remettre à plat, sur le plan intellectuel du moins. Mais un certain nombre de non-dits obscurcissent aussi singulièrement le débat.

Cartographie des questions relatives à l'internet du futur par Véronique Olivier-Martin
Image : Une cartographie des questions relatives à l’internet du futur réalisée par [17] Véronique Olivier-Martin à partir de l’atelier de travail du 26 juin 2009.

2. Des non-dits qui obscurcissent le débat

Tous les problèmes cités plus haut sont réels et importants. Mais l’internet vit avec eux depuis des années. Certains de ces problèmes ont trouvé des solutions plus ou moins bricolées. Dans d’autres cas, les solutions techniques disponibles, certes peut-être imparfaites, tardent à se mettre en œuvre – c’est vrai en particulier de la sécurité, tant au cœur des réseaux que dans les entreprises et sur les postes de travail.

Alors, pourquoi le thème de l’internet du futur, voire – pour certains – de sa nécessaire refondation, prend-il aujourd’hui tellement d’importance ? Et de quel internet s’agit-il ?

Un enjeu économique mal documenté
La question de la “neutralité de l’internet” a surgi dans l’actualité via la rubrique économique : il s’agissait, pour certains fournisseurs d’accès américains, de compléter les revenus qu’ils tiraient de leurs clients finaux (vente d’abonnements, de bande passante et d’interconnexion) en facturant les sites web les plus utilisés ou les plus exigeants, en échange d’une garantie d’acheminement prioritaire sur leurs liaisons.

Cela revenait au fond à rappeler que l’équilibre économique de la plupart des acteurs du réseau repose sur un écheveau complexe et opaque de subventions croisées :

  • Au cœur du réseau, les petits réseaux et les pays pauvres subventionnent les autres en payant des frais d’interconnexion bien plus élevés ;
  • Au niveau local, l’enchevêtrement entre réseaux et points d’interconnexion publics et privés, réservés et partagés, rend difficile tout calcul précis ;
  • Au niveau de l’accès, les clients raccordés à un débit moyen ou bas, ou ceux qui consomment peu, subventionnent les gros utilisateurs des centres-villes ;
  • Des transferts également complexes ont lieu entre les différents métiers des opérateurs : accès, contenus, transactions…

On comprend alors que derrière certaines hypothèses d’évolution de l’internet, s’expriment des volontés – éventuellement contradictoires – de modifier les équilibres économiques et les jeux d’acteurs.

Par exemple, il est difficile de garantir une qualité de service de bout en bout si chaque communication emprunte un chemin différent, passant “chez” un grand nombre d’acteurs indépendants les uns des autres, de toutes tailles, obéissant à des règles différentes – c’est la situation d’aujourd’hui. Mais pour faire autrement, il faudrait une intégration beaucoup plus forte des réseaux jusqu’à l’accès, et beaucoup moins d’opérateurs, chacun étant lié aux autres par des règles (économiques et techniques) d’interconnexion très strictes. On voit bien qu’une telle intégration changerait le paysage concurrentiel de l’internet.
De même, une plus forte intégration entre accès et contenus, ou encore, une architecture de réseau qui ne ferait plus la différence entre accès fixes et mobiles, entraineraient de toutes autres organisations de marché.
Il est légitime que les intérêts s’expriment. Mais ils apparaissent rarement en tant que tels dans le débat sur l’internet du futur. Les intérêts se masquent le plus souvent derrière des arguments fonctionnels et techniques.
Une meilleure connaissance de la réalité de l’économie de l’internet, ainsi que des rôles, usages, intérêts et enjeux de l’ensemble de ses acteurs, semble indispensable à un débat éclairé et ouvert sur l’internet du futur. La France devrait engager des travaux de recherche dans ce domaine et inviter l’Union européenne à en faire de même.

Un désir de contrôle qui ne se soumet pas au débat
Les réflexions américaines sur l’internet du futur sont devenues de plus en plus visibles à partir des attentats du 11 septembre 2001. C’est dire que la préoccupation sécuritaire y joue un grand rôle. Celle-ci concerne certes les Etats face au terrorisme et plus généralement, aux nouvelles formes de guerre. Mais la lutte contre la délinquance et la criminalité s’est également invitée au débat. Et de leur côté, les entreprises demandent également plus de sécurité face aux attaques gratuites ou intéressées dont elles sont très souvent victimes. Et plus récemment, ce sont des secteurs économiques aux prises avec de nouvelles formes de concurrence plus ou moins loyale, ou même avec leurs clients (dans le cas des industries culturelles par exemple), qui demandent au réseau d’en savoir plus sur ses utilisateurs, de filtrer, bloquer, tracer…

Certaines de ces demandes se retrouvent de fait au cœur de débats publics, comme c’est le cas autour de la “loi Hadopi”. Mais bien d’autres s’expriment d’une manière plus discrète. On peut comprendre pourquoi. Mais dans le même temps, s’agissant de l’architecture d’un réseau aussi essentiel que l’internet, le degré d’importance à accorder à l’insertion de nouvelles fonctions de sécurité au sein du réseau doit s’ouvrir aux discussions. Parce qu’on ne sécurise jamais sans contrepartie, que ce soit en termes d’ouverture du réseau, de performance, de jeux d’acteurs, etc.

* *

Les vertus de l’internet actuel doivent servir de base pour construire l’internet du futur. Les individus comme les organisations utilisent le potentiel collaboratif de l’internet d’une façon active et efficace. La prise en compte de ces aspects est un atout pour les pays émergents qui voient l’internet comme une opportunité en termes de développement et (le plus souvent) de liberté d’expression. Elle est, pour tous, un facteur d’innovation et de croissance. Toute évolution proposée doit être jugée en fonction de sa capacité de faire vivre cette dynamique ou, au contraire, de la fragiliser.

_________________

Un enjeu de gouvernance mondiale
Le groupe de travail n’a pas produit de contribution spécifique sur la gouvernance de l’internet, qui demeure cependant un sujet d’avenir majeur. Cette gouvernance demeure aujourd’hui largement dépendante du gouvernement américain d’une part, et de l’autre, des grandes entreprises (notamment américaines) qui ont à la fois l’intelligence et les ressources de financer la présence massive de leurs ingénieurs dans les groupes de standardisation.

Les futures évolutions de l’internet doivent relever d’une gouvernance bien plus multilatérale et multi-acteurs. Le mouvement engagé sous l’égide des Nations Unies depuis le Sommet mondial de la société de l’information (2003-2005), qui a vu émerger une forme d’expression de la “société civile”, constitue un premier pas, évidemment insuffisant. L’Europe doit devenir un intervenant actif des débats à venir. Les entreprises européennes doivent prendre conscience de la nécessité d’être présentes aux moments et aux endroits où s’élaborent les standards. Enfin, ces travaux doivent déborder du cadre des forums officiels et des listes de discussions pour techniciens, pour permettre à d’autres groupes d’évaluer les conséquences économiques, sociales et environnementales des évolutions envisagées.

3. Efficience et universalité : au fond, que demande-t-on à l’internet ?

Les réflexions sur l’internet du futur semblent faire l’hypothèse que ce réseau doit devenir plus efficient pour, d’une part, grandir et d’autre part, mieux répondre aux besoins « critiques » – sécurité, qualité de service, etc.

Cette idée qui semble incontestable mérite cependant qu’on la regarde en profondeur et en particulier que l’on se pose la question de savoir ce que l’on perd lorsque l’on gagne en efficience.

Car on demande aussi à l’internet d’être un réseau “universel”, et même doublement :

  • Il doit être accessible au plus grand nombre (voire à tous), donc disponible partout, facile à déployer et raccorder, peu coûteux. L’internet a fait de la connectivité une aspiration nouvelle, que l’on voit s’exprimer de la part des exclus des réseaux et plus encore, des exclus de la démocratie ou du développement dans le monde. L’internet du futur doit à l’évidence continuer de porter cette espérance.
  • Il doit également accueillir les usages, les services, les applications et même les détournements les plus hétéroclites et les plus imprévus, et leur permettre si nécessaire de se déployer à très grande échelle. En fonctionnant comme une infrastructure neutre et simple, appuyée sur des standards ouverts, en ne faisant aucune distinction a priori entre les points qu’il connecte, l’internet est devenu en quelques années l’une des plus extraordinaires plates-formes d’innovation de l’histoire. Des millions d’applications, de sites, d’organisations humaines, de processus… s’appuient sur lui. Pratiquement aucun n’était même imaginable aux débuts du réseau. Très peu ont été inventés par les grands acteurs des réseaux.

Pour atteindre ce niveau d’universalité, le critère prioritaire n’est plus l’efficience, mais l’adaptabilité, la capacité d’accueillir l’imprévu – le juriste Jonathan Zittrain parle d’un internet “génératif” .

Comment équilibrer adaptabilité et efficicience ?
Gagner en efficience implique que l’on cherche à optimiser la gestion des ressources rares du réseau (les adresses IP, la puissance de calcul des routeurs, la bande passante parfois… et les finances des opérateurs) et à en maximiser la sécurité, ce qui exige de prévoir au mieux ce qu’il se passe sur le réseau (les chemins empruntés par exemple).

rareteabondance.jpgSe mettre en position de répondre à l’imprévu exige à peu près l’opposé : proposer en permanence une abondance de choix, voire de capacités, entre lesquels chaque innovateur, chaque organisation, voire chaque individu, choisira le moment venu, mais pas avant…

Ainsi d’un côté, on cherche à optimiser (gérer la rareté par la prévisibilité) et de l’autre à s’adapter (gérer l’imprévisible par l’abondance). Ces deux approches semblent incompatibles mais en réalité, tout est affaire d’équilibre.

efficienceresilience.jpgLes sciences de la complexité, démontrent en effet que tout réseau, qu’il soit technologique, biologique ou humain atteint un optimum de durabilité lorsqu’il trouve le bon équilibre entre l’efficience et la résilience (qui reprend certaines notions de l’adaptabilité) . Cet optimum se situe généralement un peu plus près de la résilience que de l’efficience. C’est également à ce point d’équilibre entre optimisation et adaptabilité, entre ordre et désordre, qu’émergent de nouvelles possibilités ; bref, que le potentiel d’innovation est maximal.

Les arguments techniques, généralement centrés sur l’efficience, ne peuvent donc pas suffire à déterminer la direction des travaux sur “l’internet du futur”. Il faut certes répondre d’une manière ou d’une autre aux besoins “critiques” de certaines applications qui échouent si certaines fonctions ne sont pas remplies à un certain niveau de qualité (garantie de bonne fin). Mais l’internet doit aussi demeurer un réseau à vocation universelle – accessible à tous et à tous les usages, sans préjuger de leur pertinence – et ceci s’accommode mal de dispositifs verrouillés.

Il y a critique et critique
Quelles sont les applications qui nécessitent vraiment un réseau “critique”, prioritairement bâti sur des critères d’efficience et de sécurité ?

On a par exemple souvent présenté la nécessité d’un débit parfaitement continu (la qualité de service) comme un élément critique pour permettre de passer de la voix sur un réseau. Mais l’utilisation massive du téléphone mobile, de la téléphonie IP, de la vidéo sur l’internet ou même de jeux en ligne de “basse résolution”, montre que les utilisateurs arbitrent plus souvent qu’on ne le croit en faveur du choix, du prix, de la mobilité, de leur propre capacité de participation, au détriment d’une qualité maximale.
Par contre des réseaux militaires, de recherche ou d’échanges interbancaires peuvent être perçus comme critiques : la sécurité, le délai d’arrivée des informations, la rapidité d’interaction, y ont un caractère vital. C’est aussi le cas d’éventuels réseaux qui permettraient le contrôle à distance de stimulateurs cardiaques ou d’autres appareils médicaux : dans ce cas la sécurité et la continuité du service doivent être assurés au maximum, quitte à réduire l’innovation sur de tels réseaux.

Faire coexister deux logiques
Sans négliger l’importance des critères d’efficience propres aux réseaux et aux usages “critiques”, on ne saurait donc réorganiser tout l’internet autour de ces critères. Il est “essentiel ” que le réseau “universel” qu’est l’internet conserve une architecture qui favorise l’accessibilité et l’innovation (symétrie des échanges, interconnexion directe des différents points du réseau…). De ce point de vue, il est nécessaire à court terme de faciliter le déploiement du protocole IPv6 (qui est immédiatement disponible et conserve cet équilibre entre “best effort” et optimisation) tout en favorisant la recherche de nouvelles solutions respectant le même type d’équilibre.

D’un autre côté, il apparaît économiquement raisonnable que les réseaux critiques, mêmes non interconnectés avec l’internet “universel” partagent lorsque cela est possible, les mêmes infrastructures physiques.
Différentes technologies permettent aujourd’hui de faire fonctionner sur de mêmes réseaux physiques des réseaux “virtuels” distincts et même étanches entre eux. Ceci présenterait en outre l’avantage, pour l’avenir, de faciliter l’expérimentation (de préférence participative, avec l’ensemble des acteurs concernés) de solutions innovantes pour l’internet qui sauraient mieux équilibrer performance, fiabilité, adaptabilité, économie et innovation.

Une difficulté économique
Cette vision d’un réseau “universel” qui arbitre délibérément en faveur du potentiel d’innovation au détriment de certaines attentes en termes d’efficience, et même de sécurité, rend difficile la mise en place de points de passage obligés à des fins, par exemple, de péage ou de contrôle. Remarquons cependant que dans d’autres domaines, ces fonctions ne sont pas non plus gérées par le réseau (cas des transports, dont la modernisation s’est accompagnée de la disparition des octrois), ou bien qu’elles ne le sont pour l’essentiel qu’aux extrémités des réseaux (cas de l’énergie). L’internet ne ferait donc pas exception.

* *

Si l’on ne peut pas avoir à la fois une efficience maximale et une adaptabilité maximale, il faut alors trouver le moyen de permettre aux deux formes de réseaux de se développer tout en s’interconnectant et en partageant le plus grand nombre possible de ressources.

4. Les objets, les sujets : deux nouveaux objectifs pour l’internet du futur

Un véritable “internet des objets”
Aujourd’hui, ce que l’on décrit souvent comme “l’internet des objets” se déploie le plus souvent hors de l’internet (dans des réseaux internes à des entreprises ou à des secteurs d’activités) et selon des principes très différents de ceux de l’internet : chaque puce qui équipe un objet ou un lieu ne communique en général qu’avec son “maître”, dans des dispositifs en étoile autour d’un système centralisé, et pour des finalités précises.

Les objets et les espaces se mettent bien en réseau, mais d’une manière sélective et le plus souvent hiérarchique, à l’intérieur de silos. On ne peut en général pas accéder aux capteurs et actionneurs pour leur faire faire autre chose que ce qu’ont prévu leurs installateurs ; on n’accède pas plus aux données qu’ils produisent : les images des caméras vont au PC de surveillance, les mesures de trafic à celui de la circulation, et personne d’autre n’en fera jamais rien. A brève échéance, on saura probablement identifier les “objets communicants” d’une manière à peu près universelle, mais il reste que la connexion “en étoile” à un serveur ne fait pas un “internet des objets”.

Ce qui a deux conséquences liées : d’une part, la plupart des puces installées dans des objets ou des espaces doivent se rentabiliser sur un seul usage, pour un seul acteur – celui qui les a installées. Comme, jadis, les ordinateurs spécialisés, mono-tâches et mono-utilisateurs. Et d’autre part, l’imagination innovante trouve peu à s’appliquer, puisque l’accès à l’infrastructure de facto que constituent toutes ces puces demeure sous contrôle, et que la combinatoire de ces puces, objets, espaces, utilisateurs, demeure bridée.

Un marché aussi contraint se condamne à rester petit. Et par construction, il vise à renforcer les acteurs et modèles existants, pas à les changer.

Deux idées centrales
D’autres pistes sont en cours d’exploration pour imaginer un système dans lequel les modèles de conception des objets, leurs fonctions, leurs caractéristiques techniques, leur composition, leur cycle de vie et bien sûr, les services qu’ils offrent via leurs capacités d’acquisition, de traitement et de communication, s’ouvrent beaucoup plus largement à l’innovation.

Tout, dans ces travaux, ne relève pas du réseau soi-même. Mais ils convergent autour de deux idées centrales :

  • Faire des objets (et des espaces) communicants des “constituants” de l’internet à part entière, qui peuvent être visibles du reste du réseau (ils disposent d’adresses publiques), qui peuvent émettre autant que recevoir et ce, via l’internet de tout le monde, qui peuvent être exploités (ou au moins voir leurs données exploitées) par d’autres que ceux qui les ont créés, installés ou équipés. Naturellement, des conditions de sécurité ou économiques peuvent s’appliquer, mais elles doivent venir après. Cela suppose a minima que l’espace d’adressage des objets soit cohérent avec celui du reste de l’internet et que les protocoles de l’internet “universel” facilitent également l’interconnexion avec des objets dont les capacités électroniques sont de faible puissance et qui doivent consommer très peu d’énergie.
  • Faciliter l’établissement spontané de réseaux de proximité entre objets fixes et nomades : détection et reconnaissance automatique, négociation de la connexion, utilisation des supports de réseau disponibles, ainsi que des liens accessibles avec le reste de l’internet.

La recherche européenne doit se focaliser sur ces éléments de cahier des charges, pour prendre position dans la création d’un internet des objets intégré dans l’internet des humains, plutôt que séparé de lui et contrôlé par les grandes filières industrielles existantes.

Un “internet des sujets”
Le thème de l’identité (numérique) prend une place de plus en plus centrale dans les discussions autour de l’internet, ainsi que dans les pratiques.

Aujourd’hui, cette identité est maltraitée sur le réseau :

  • Elle dépend entièrement des conditions d’accès au réseau ou à un service donné. Si l’on change de fournisseur d’accès internet, on perd le plus souvent son adresse e-mail et par suite, bien souvent, son accès à certains services, voire des listes de contacts. Si l’on change de réseau social, on perd son profil et ses réseaux d’”amis”.
  • Elle est fragmentée, elle existe de manière différente dans chaque espace au sein duquel on s’identifie : un coupe identifiant/mot de passe par service, réseau social, outil… Il devient dès lors très difficile de maîtriser les manifestations et les utilisations de son identité.
  • L’utilisateur de l’internet n’est ni vraiment anonyme (il est relativement aisé de l’identifier, du moins si l’on peut relier l’adresse IP à un compte chez un fournisseur d’accès), ni bien identifié (le réseau lui-même ne certifie ni n’authentifie sans dispositifs complémentaires mis en place à cet effet).

Or le développement des pratiques individuelles et sociales de l’internet fait émerger un grand nombre d’attentes nouvelles, et en partie contradictoires :

  • Le besoin social et professionnel de disposer d’une “existence numérique” – auquel font référence des initiatives tendant à donner à des SDF une adresse mail, un numéro de téléphone ou encore un espace de stockage numérique personnel.
  • La volonté de maîtriser les manifestations de son identité, qu’il s’agisse de préserver sa vie privée face aux commerçants, aux employeurs ou aux autorités – ou au contraire de se projeter pour entrer en relation avec d’autres, collaborer, s’exprimer, obtenir un service…
  • La double volonté, d’une part, de disposer de plusieurs “identités” distinctes permettant de cloisonner divers aspects de son existence et d’autre part, de simplifier la gestion de ses identifiants, de ses cercles de relations, de ses profils, etc.
  • La besoin de rattacher à son ou ses identité(s) une multitude d’objets, d’informations, de documents, de liens et autres “agents” disséminés sur le réseau – sans pour autant tout laisser voir à tout le monde.

Une “adresse numérique” personnelle ?
La complexité de ces attentes incite paradoxalement à ne pas trop confier de choses au réseau soi-même, au risque de tout figer, ou de détruire la confiance pour cause d’excès de surveillance.

Mais il semble malgré tout nécessaire de réfléchir à la possibilité d’attribuer facilement (et pour pas cher, voire gratuitement) un ou plusieurs identifiants techniques pérennes, propres à l’individu et sans doute incessibles, indépendants des modalités physiques ou contractuelles d’accès au réseau. La forme de cet/ces identifiant(s) est à discuter : adresse IP ou morceau d’adresse, nom de domaine, “URI” (uniform resource identifier)…

Un tel type d’identifiant résoudrait plusieurs des problèmes cités plus haut. En revanche, il pourrait en créer de nouveaux s’il rendait excessivement aisé l’établissement d’un lien entre une visite, une transaction, un échange, une donnée, et l’identité civile associée. Il faudrait donc offrir la possibilité de le masquer via des dispositifs d’anonymisation de tout ou partie de l’adresse par exemple, ou par des moyens alternatifs à rechercher.

Ce qui précède constitue donc, non pas une revendication, mais la recommandation d’en faire un vrai sujet de recherche et d’expérimentation pour l’internet de demain. L’identité numérique sera l’un des sujets de débat centraux de l’internet du futur. Ce sujet devra être abordé d’une manière créative et courageuse, pour répondre aux aspirations qui émergent sans céder à la tentation de la surveillance ou de la transparence totale.

Un internet de confiance ?
La “confiance” est souvent évoquée comme l’un des buts souhaitables à atteindre sur l’internet du futur. Mais qu’entend-on par confiance ? Au moins trois choses :

  • La confiance vis-à-vis du réseau soi-même, de sa fiabilité (la possibilité de s’appuyer dessus pour des actes importants) – dont l’une des conditions est qu’il ne nous soumette pas à une surveillance plus étroite que celle que l’on accepte dans la vie quotidienne hors ligne.
  • La confiance vis-à-vis des services, de leur crédibilité, du respect de leurs engagements contractuels, du respect de la vie privée de leurs utilisateurs.
  • La confiance vis-à-vis des autres, de ce que l’on pense savoir d’eux (qui ne suppose pas nécessairement de connaître leur identité civile) et de la valeur de leur parole.

Face à ces questions importantes, les principales réponses théoriques et politiques sont aujourd’hui techniques – elles consistent à augmenter le niveau de sécurité des systèmes ; alors qu’au quotidien, les principales réponses pratiques sont plutôt contractuelles (ce que chacun risque ou non), assurancielles (à qui coûte le risque, et combien), sociales (ce que les autres disent de…) ou mémorielles (ce que j’ai vécu précédemment avec…). La plupart des dispositifs avancés de sécurisation des échanges demeurent peu utilisés.

Faut-il aller plus loin dans le réseau lui-même ? Sans doute, mais là encore, d’une manière prudente. Traiter de manière purement technique des questions de confiance peut détruire le substrat de confiance sur lequel toute société repose : pourquoi me demander si j’ai confiance en quelqu’un s’il m’est facile de prendre toutes les sécurités possibles ? Et par suite, la confiance vis-à-vis du réseau peut en souffrir : puis-je prendre le moindre risque si tout m’est infiniment imputable et si, pour que ce soit le cas, tout ce que je fais se sait quelque part ?

A minima, avant que de sécuriser plus avant l’internet et les échanges qui s’y déroulent, il conviendrait de s’assurer que les dispositifs de sécurité existants sont utilisés – ou bien, de comprendre pourquoi ce n’est pas le cas. Il peut en effet, comme nous l’indiquons dans la partie 3, y avoir de bonnes raisons de ne pas sécuriser à l’excès certains dispositifs, certains modes d’accès et d’identification, certaines transactions ou échanges : faciliter l’accès, réaliser des économies, favoriser l’émergence d’usages imprévus et de détournements, inviter les utilisateurs à se faire confiance, etc.

Ce que l’on pourrait demander au réseau soi-même pourrait alors porter sur :

  • La confidentialité des échanges : certains imaginent que les données circulant sur le réseau puissent être étiquetée d’un niveau de confidentialité (public, privé, restreint) ;
  • La sécurité des équipements du réseau ;
  • Et la facilité de construire des réseaux “critiques” plus fiables et sécurisés, séparés au moins pour partie de l’internet “universel”.

Conclusion : les trois priorités

Une approche technologique de l’internet du futur cherchera assez naturellement à répondre au plus grand nombre possible de demandes en termes de performance, de fiabilité et de sécurité.

En nous plaçant d’un autre point de vue, celui d’acteurs qui s’appuient sur l’internet pour innover et développer leurs activités, nous avons montré que cette approche pouvait avoir un coût caché : celui de rendre l’internet moins accessible, et surtout, moins ouvert à l’innovation.

* *

En évoluant, l’internet doit rester ce réseau doublement universel – ouvert à tous, ouvert à tout – et cette plate-forme d’innovation. Cela supposera souvent d’arbitrer, sur l’internet, en faveur de l’adaptabilité du réseau plutôt que de l’optimisation – quitte à faire le contraire sur certains réseaux dédiés, plus ou moins interconnectés avec l’internet “universel” et pour lesquels la capacité d’innovation n’est pas aussi essentielle.

Les conséquences sociales et économiques d’une diminution de la capacité de l’internet à fonctionner comme un moteur d’innovation ouverte, y compris pour de compréhensibles raisons de sécurité et de qualité, seraient profondément négatives.
Cet internet ne sera plus celui des seuls ordinateurs, du moins des ordinateurs tels que nous les connaissons. Etendre l’internet aux objets constitue un chantier prioritaire, mais il faut l’aborder dans l’esprit… de l’internet : c’est-à-dire faire des objets, non pas de simples terminaisons de chaines de valeur industrielles, mais des constituants à part entière d’un internet des humains et des non-humains, ouverts à leur tour aux transformations, aux détournements, aux agencements imprévus.

Enfin, l’internet est devenu une infrastructure si essentielle pour des millions d’individus, qu’il devient prioritaire de les y faire exister. Exister comme des sujets autonomes, capables d’y déployer leurs capacités, qui y possèdent une adresse (voire un domicile) stable, tout en bénéficiant des libertés élémentaires de disparaître, de se dissimuler ou de se réinventer.

* *

Universalité, accessibilité et ouverture à l’innovation d’où qu’elle vienne ; mise en réseau des humains et des non-humains ; émergence d’un “internet des sujets” : voici les trois attentes prioritaires que nous exprimons dans ce “cahier des charges” de l’internet du futur. Elles ne s’opposent pas à d’autres attentes, mais elles doivent être défendues avec suffisamment de force, comme des critères sur lesquels il serait grave, y compris du point de vue économique, de transiger.

En défendant une telle vision, la France proposerait une voie créative et ambitieuse, dans laquelle l’Europe pourrait prendre toute sa place.

________________

Quelques recommandations concrètes

Ayant travaillé dans l’optique d’un “cahier des charges”, le groupe ne s’est pas fixé pour objectif de produire des recommandations précises en réponse à chacune des questions de la consultation. Quelques pistes ont cependant émergé des échanges, dont nous reprenons les principales.

Soutenir les recherches qui visent :

  • A mieux comprendre l’économie et les jeux d’acteurs de l’internet, ainsi que son fonctionnement concret
  • A augmenter les capacités et la qualité du réseau actuel
  • A étendre au-delà de ses limites actuelles les principes architecturaux décentralisés qui fondent en principe l’internet, mais ne s’appliquent que rarement au niveau du “dernier kilomètre” : réseaux “sans opérateurs” et de pair à pair, réseaux mesh et ad hoc, réseaux autonomes… (ce dernier point relevant dans une large mesure de la recherche “en rupture”)
  • Dans le soutien à la recherche, s’attacher à associer les grands industriels, les acteurs publics, les laboratoires de recherche et les petites entreprises innovantes, dont proviendront bien souvent les innovations les plus importantes. Des initiatives particulières doivent s’attacher à mettre ces dernières en mesure de développer leur R&D, puis leur développement, les deux à l’échelle internationale.
  • Trouver les méthodes et les dispositifs concrets permettant d’intégrer les citoyens et les utilisateurs en amont des recherches sur l’internet du futur (et ses applications).
  • Explorer, en termes techniques, économiques et de régulation, les conséquences de l’émergence probable de “droits” associés au caractère de plus en plus indispensable des réseaux : droit à l’accès, droit à l’identité, droit à l’oubli ou à la déconnexion, droit à la préservation des données dans le temps…
  • A l’évidence, porter ces projets et ces recommandations au niveau européen, seul échelon d’action pertinent dans ce débat mondial.

_________________

Liste des participants au groupe de travail
Les participants sont intervenus à titre individuel. Les idées exprimées dans ce document ne reflètent pas nécessairement celles de leurs employeurs ou organisations. La présence dans la liste des participants n’implique pas non plus une adhésion à chacune des idées et propositions de ce document.

Olivier Auber, Baptiste Cammareri, Jean-Marie Chauvet, Nathalie Colombier, Dominique Dardel, Jean-Marie Dazin, Olivier Desbiey, Fabrice Epelboin, Monique Epstein, Laurent Ferrali, Vincent Fillion, Francine Halfen, Isabelle Galy, Laurent Gille, Damien Guennif, André Gunthert, Thomas Lang, Jean-Marc Manach, Kouam Mensah, France Miremont, Gilles Misrahi, Pierre Mounier, Tristan Nitot, Nicolas Nova, Gilles Pansu, Franck Perrier, Margault Phélip, Damien Roussat, Sylvie Sassi, Christel Sorin, Mohsen Souissi, Christophe Tallec, Yannick Tamèze.

Article initialement publié sur Internet Actu

]]>
http://owni.fr/2009/07/22/internet-du-futur-vers-un-%e2%80%9ccahier-des-charges%e2%80%9d/feed/ 0