OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Petite histoire de la naissance du binaire http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire/ http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire/#comments Sat, 03 Jul 2010 13:49:53 +0000 Thierry Crouzet http://owni.fr/?p=21069 John Atanasoff, penché sur son bureau, ses mains plongées dans ses cheveux noirs coupés en brosse, fixait sans les voir des feuilles couvertes de calculs. Comme si quelqu’un venait de l’appeler, il se redressa, regarda autour de lui, puis se leva.

Décembre 1937, Université de l’Iowa

Dehors, un faible soleil éclairait le campus de l’Iowa State University. On était en décembre 1937, Roosevelt venait de déclarer la civilisation en danger et avait annoncé que les États-Unis cesseraient tout échange économique et diplomatique avec les pays qui bafoueraient la paix.

John secoua la tête. Il avait 34 ans et tout cela le fatiguait. Depuis qu’il était physicien, il passait le plus clair de son temps à calculer. C’était exaspérant. Certaines équations lui demandaient une journée de travail. Il lui fallait en résoudre des dizaines et les calculateurs mécaniques qu’il utilisait ne l’aidaient pas beaucoup.

Il arracha sa cravate, dénoua sa chemise, saisit sa veste, sortit de son bureau, quitta l’immeuble baroque de l’université et grimpa dans sa voiture. Sans laisser le moteur chauffer, il accéléra et s’échappa de la petite ville d’Ames. À plus 140 km/heures, il fonça vers Des Moines.

Il ralentit devant plusieurs bars. Il était tout juste midi. Il accéléra à nouveau et s’éloigna de la capitale de l’État. Il s’engagea sur l’Interstate en direction de l’Illinois. À fond de train, il roula pendant près de trois heures jusqu’à Rock Island et s’arrêta dans un bar au bord du Mississipi.

“1 et 0, le binaire, c’est la solution”

Après trois Scotch , il sentit mieux, il sourit, une pensée fulgurante le traversa : « 1 et 0, le binaire, c’est la solution. »

Sur la nappe devant lui, il lista les grandes caractéristiques des tous les ordinateurs numériques que nous avons depuis construits. Ils seront électroniques et non plus mécaniques. Ils travailleront avec des 0 et des 1 représentés par des interrupteurs on ou off. Ils disposeront d’une mémoire. Ils effectueront des opérations logiques.

Depuis des années, John cherchait à automatiser les calculs et il venait de découvrir une nouvelle approche révolutionnaire. Sa mère mathématicienne lui avait appris le calcul binaire alors qu’il était enfant et cet enseignement portait ses fruits vingt ans plus tard.

Rentré à l’université de l’Iowa, John construisit avec son assistant Clifford Berry, le premier ordinateur numérique de l’histoire. Comme pendant des années John avait été un calculateur humain, un computer comme on disait alors en anglais, il appela computer sa machine, heureux qu’elle puisse le dispenser de la tâche qui pour lui était devenu insupportable.

Un calcul toute les 15 secondes pour plus de 300 kilos

À la fin de 1939, l’ABC (Atanasoff Berry Computer) entra en service. Capable d’une opération toute les 15 secondes, il pesait plus de 300 kilos. C’était un petit pas pour John, enfin libéré d’un pénible labeur, mais un immense pas pour l’humanité. De 300 kilos, les ordinateurs allaient bientôt se miniaturiser et devenir omniprésents. Nous allions peu à peu changer de façon de travailler, de communiquer, de jouer, de penser le monde et même de faire de la politique, c’est-à-dire de mener nos vies.

__

Billet originellement publié sur le blog de Thierry Crouzet sous le titre “L’arrivée des 0 et des 1“.

Crédits Photo CC Flickr : Indiaromeo.

]]>
http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire/feed/ 72
Petite histoire de la naissance du binaire http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire-2/ http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire-2/#comments Sat, 03 Jul 2010 13:49:53 +0000 Thierry Crouzet http://owni.fr/?p=21069 John Atanasoff, penché sur son bureau, ses mains plongées dans ses cheveux noirs coupés en brosse, fixait sans les voir des feuilles couvertes de calculs. Comme si quelqu’un venait de l’appeler, il se redressa, regarda autour de lui, puis se leva.

Décembre 1937, Université de l’Iowa

Dehors, un faible soleil éclairait le campus de l’Iowa State University. On était en décembre 1937, Roosevelt venait de déclarer la civilisation en danger et avait annoncé que les États-Unis cesseraient tout échange économique et diplomatique avec les pays qui bafoueraient la paix.

John secoua la tête. Il avait 34 ans et tout cela le fatiguait. Depuis qu’il était physicien, il passait le plus clair de son temps à calculer. C’était exaspérant. Certaines équations lui demandaient une journée de travail. Il lui fallait en résoudre des dizaines et les calculateurs mécaniques qu’il utilisait ne l’aidaient pas beaucoup.

Il arracha sa cravate, dénoua sa chemise, saisit sa veste, sortit de son bureau, quitta l’immeuble baroque de l’université et grimpa dans sa voiture. Sans laisser le moteur chauffer, il accéléra et s’échappa de la petite ville d’Ames. À plus 140 km/heures, il fonça vers Des Moines.

Il ralentit devant plusieurs bars. Il était tout juste midi. Il accéléra à nouveau et s’éloigna de la capitale de l’État. Il s’engagea sur l’Interstate en direction de l’Illinois. À fond de train, il roula pendant près de trois heures jusqu’à Rock Island et s’arrêta dans un bar au bord du Mississipi.

“1 et 0, le binaire, c’est la solution”

Après trois Scotch , il sentit mieux, il sourit, une pensée fulgurante le traversa : « 1 et 0, le binaire, c’est la solution. »

Sur la nappe devant lui, il lista les grandes caractéristiques des tous les ordinateurs numériques que nous avons depuis construits. Ils seront électroniques et non plus mécaniques. Ils travailleront avec des 0 et des 1 représentés par des interrupteurs on ou off. Ils disposeront d’une mémoire. Ils effectueront des opérations logiques.

Depuis des années, John cherchait à automatiser les calculs et il venait de découvrir une nouvelle approche révolutionnaire. Sa mère mathématicienne lui avait appris le calcul binaire alors qu’il était enfant et cet enseignement portait ses fruits vingt ans plus tard.

Rentré à l’université de l’Iowa, John construisit avec son assistant Clifford Berry, le premier ordinateur numérique de l’histoire. Comme pendant des années John avait été un calculateur humain, un computer comme on disait alors en anglais, il appela computer sa machine, heureux qu’elle puisse le dispenser de la tâche qui pour lui était devenu insupportable.

Un calcul toute les 15 secondes pour plus de 300 kilos

À la fin de 1939, l’ABC (Atanasoff Berry Computer) entra en service. Capable d’une opération toute les 15 secondes, il pesait plus de 300 kilos. C’était un petit pas pour John, enfin libéré d’un pénible labeur, mais un immense pas pour l’humanité. De 300 kilos, les ordinateurs allaient bientôt se miniaturiser et devenir omniprésents. Nous allions peu à peu changer de façon de travailler, de communiquer, de jouer, de penser le monde et même de faire de la politique, c’est-à-dire de mener nos vies.

__

Billet originellement publié sur le blog de Thierry Crouzet sous le titre “L’arrivée des 0 et des 1“.

Crédits Photo CC Flickr : Indiaromeo.

]]>
http://owni.fr/2010/07/03/petite-histoire-de-la-naissance-du-binaire-2/feed/ 38
Ingénieries de la sérendipité http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/ http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/#comments Thu, 04 Feb 2010 10:11:51 +0000 Olivier Ertzscheid http://owni.fr/?p=7639

AU COMMENCEMENT …

Cela ressemble à de la sérendipité, ça à la goût de la sérendipité … mais ce n’est pas nécessairement de la sérendipité. Historiquement, c’est Google qui fut le premier moteur de recherche à instrumentaliser un processus de fortuité, via le bouton “Feeling Lucky” (lequel n’a d’ailleurs rien à voir avec une quelconque sérendipité littérale, puisque ledit bouton se contente de vous amener sur le premier résultat renvoyé par le moteur de recherche). Comme nous l’expliquions en détail dans ce remarquable article co-écrit avec mes excellents collègues (:-), ce bouton est avant tout un argument marketing et un élément fondateur de la sémiotique Googléenne.

1998 : Sérendipité année zéro. Bref, depuis Google, et avec l’arrivée du web contributif, la sérendipité est aujourd’hui partout réellement présente et systématiquement agissante. Mais cette capacité à trouver de nouveaux amis en ligne, ces liens passionnants qui semblent surgir aléatoirement au détour d’un raccourcisseur d’URL sur Twitter sont-ils réellement de la sérendipité en action ? Voici quelques-unes des questions auxquelles ce billet va tenter d’apporter des réponses (ah ben tiens, je crois que c’est la 1ère fois que je fais une vraie introduction dans un billet :-)

Basiquement, la sérendipité désigne la capacité à trouver des informations qui n’étaient pas celles que l’on recherchait initialement mais qui vont cependant s’avérer utile pour résoudre le problème ou la question à l’origine de notre recherche, ou d’une recherche/d’un problème antérieur.

Sérendipité et SIC. Avant que je ne me ré-attaque au problème avec mes gentils camarades, c’est le vénérable Jacques Perriault qui avait (ré)introduit la notion de sérendipité dans le corpus des SIC (sciences de l’information et de la communication … enfin, plus souvent de la communication que de l’information, mais ceci est un autre débat …). Jacques Perriault donc, au tout début des années 2000, avec ce texte in fine ô combien programmatique : “Effet diligence, effet serendip et autres défis pour les sciences de l’information“.

Dans notre approche (celle de mes petits camarades et de moi-même), la sérendipité est un concept moteur pour penser à la fois les stratégies (machiniques) à l’oeuvre derrière l’infinité de l’arbre des possibles navigations du Web (comportements), ainsi que les stratégies mémorielles à court et moyen terme présidant à nos activités de recherche et d’accès à l’information (aspect cognitif). Soit la très sainte trinité suivante : machine – cognition – comportements (usages) qui conditionne tout un tas de choses, dont la sériation des différents phénomènes de sérendipité. Si la littérature francophone sur la sérendipité est relativement maigre, le concept est en revanche depuis longtemps très développé outre-atlantique, notamment, depuis la fin des années 60 dans les travaux d’Eugène Garfield, “père fondateur” de la bibliométrie qui développe le concept de “systematic serendipity” (notamment dans cet article “Systematic serendipity : Finding the Undiscovered Answers to Science Questions” .pdf).

Notons qu’il est à première vue assez paradoxal de retrouver l’essentiel de la littérature scientifique sur la sérendipité dans un champ disciplinaire – les études bibliométriques et scientométriques – qui a pour objectif de ramener dans la rationalité de modèles mathématiques tout ce qui pourrait de près ou de loin ressembler à de l’aléatoire et à du fortuit :-)

Sérendipité illustrée. La sérendipité dispose donc aujourd’hui de ses colloques, de ses théoriciens et historiens, de sa très sérieuse revue scientifique éponyme, de ses projets de recherche éponymes reposant sur la valeur prédictive d’icelle, de sa courbe mathématique, ses pédagogues éclairés (allez dévorer l’article de Patrick Pecatte : “Heuristique et Sérendipité : un exemple en images.“). Ou d’une sérendipité, l’autre.

Im-feeling-luckySerendip

Ayant déjà largement glosé sur la première de ces images (, , , mais aussi par là), la seconde image (découverte fortuitement ici grâce à la fréquentation – cette fois non-fortuite – de ce monsieur là) m’a semblé parfaitement illustrer la manière dont les SIC se doivent d’approcher la sérendipité. C’est à dire sans se priver d’un cadre anthropologique global mais en se focalisant sur les “artefacts” de la sérendipité.

CHAPITRE PREMIER / De la mécanique du rebond à la dynamique du surgissement : sérendipitéS.


Dans un ancien billet (Nov. 2005), je m’efforçais en ces termes de décrire l’évolution de nos modes de navigation :

» “les développements du (web 2.0 + Social software + RSS) nous emmèneraient vers un “troisième âge” de la navigation : après le browsing et le searching voici venu le temps du “subscribing”**. On ne navigue plus, on ne recherche plus, on s’abonne, on “souscrit”. Notons d’ailleurs que l’étymologie de ce dernier vocable est intéressante : “souscrire”, “sub-scribere”, littéralement “écrire en dessous”, à moins qu’il ne s’agisse d’écriture “sous autorité” : en agrégeant les discours écrits ou postés par d’autres, on est, de facto, placé “sous” une “autorité” qui n’est plus notre.
Car comment faire autrement que de “souscrire” à ces contenus qui ne sont plus “inscrits” ?

**Je vous épargne le Wilfing ou naviguerrance ou plus prosaïquement cyberglandouille.

Corrélons maintenant la hiérarchie précédente (Browsing => Searching => Subscribing) à une autre typologie :

» Désintermédiation : au “browsing” (littéralement “feuilletage”), correspond une logique de type “Watching” : je regarde, surveille, inspecte et parfois découvre de l’information, des contenus avec comme seuls fils conducteurs ceux de mon propre intérêt (= “je suis à la recherche de quelques chose”) et des stratégies cognitives que je suis capable de mettre en place au cours de ladite navigation

» Médiation : au “searching” (littéralement “recherche”), correspond une autre logique, en rupture complète avec la précédente, qui est celle du “matching”, c’est à dire de l’adéquation entre un ou plusieurs termes (ceux de ma recherche) et une ou plusieurs pages de contenus. Il y a donc, dans ce cas, recours explicite à une médiation machinique (celle des moteurs “prescripteurs”, l’algorithmie de ces derniers devenant le fil conducteur presqu’exclusif de mes pérégrinations sur le web)

» Ré-intermédiation : enfin, au “subscribing”, à cette souscription désormais si fréquente (grâce aux ingénieries spécifiques du web contributif, fils RSS notamment), correspond une dernière logique, là encore en rupture avec les précédentes, celle de ce que l’on pourrait qualifier de “floating” (littéralement “flottement”), une navigation flottante, c’est à dire non-orientée, ni par l’adéquation entre un besoin exprimé et des contenus y répondant (“searching”), ni par un parcours volontariste de recherche (“browsing”). Une navigation flottante s’appuyant sur les seuls remous de la houle des signalements effectués par d’autres, et avec comme seule cardinalité, comme seul “horizon” de navigation, le fait que j’aie (ou non) à un moment donné fait le choix d’agréger ces “autres” au sein de mon panoptique personnel**

(** par “panoptique personnel” comprendre ici l’ensemble des outils fonctionnant comme autant de tableaux de bords quotidiens nous permettant de nous informer du monde comme il va : Twitter, Facebook et mon agrégateur RSS sont ainsi les 3 composantes de base de mon panoptique personnel)
La boucle (si fréquente dans les SIC) permettant de passer d’un dispositif désintermédié (= sans intermédiaires) à un dispositif réintermédié (= incluant de nouvelles médiations, de nouveaux médiateurs) permet de caractériser, au sein du processus même de sérendipité, un changement de nature important : la logique du rebond, propre aux deux premières étapes, s’efface pour laisser place à une dynamique du surgissement, dont l’efficacité – réelle – n’en demeure pas moins entièrement conditionnée à nos choix initiaux (réagencés en permanence) des contenus ou des personnes agrégées dans notre panoptique personnel.

Soit l’occasion de reposer l’éternelle question de la poule et de l’oeuf :

» la pertinence (objective dans un contexte donné) de nos navigations aléatoires est-elle la conséquence de nos choix (subjectifs) initiaux en termes de réseaux d’affiliation et de souscription ?

» ou bien en est-elle la cause, c’est à dire bâtissons-nous nos réseaux d’affiliation et de souscription en fonction de la pertinence (subjective) des contenus pertinents (objectivables) que d’autres proposent à des communautés déjà constituées ?

Comme le disait Fox Mulder, autre éminent chercheur en SIC, “la vérité est ailleurs“, et probablement entre les deux. Une chose reste certaine, toute réintermédiation – a fortiori ouverte et/ou participative -  entraîne nécessairement et mécaniquement une part d’aléatoire, de sérendipité, et – pour autant que l’on soit convaincu de l’apport de cette part d’aléatoire – on serait assez bien inspiré de cesser de craindre les profondes et hétérogènes réintermédiations qui se pointent à l’horizon de l’édition, de la presse (et la presse en ligne), de la chaîne du livre, etc … pour au contraire s’en réjouir et accélérer d’autant les désintermédiations en cours comme autant de préalables parfois un peu douloureux mais pourtant si nécessaires et si urgents …

La “sérendipité contrôlée” de Madame Popova : “ça c’est kloug, Mme Popova. Pas sérendipité.” Un récent article des blogs du NYTimes parle de “sérendipité contrôlée” pour désigner je cite, ces personnes qui “filtrent des liens intéressants à destination de centaines d’inconnus pour épancher leur soif de curiosité“, citant l’exemple de Madame Popova :

» “Mrs. Popova uses a meticulously curated feed of Web sites and Twitter followers to find each day’s pot of gold. She said, “I scour it all, hence the serendipity. It’s essentially ‘metacuration’ — curating the backbone, but letting its tentacles move freely. That’s the best formula for content discovery, I find.” Ce qui donnerait à peu près ceci : “méticuleuse dans ses choix de fils RSS et d’amis sur Twitter – ce qui lui permet de découvrir chaque jour une nouvelle mine d’or. ‘J’épluche tout, dit-elle, d’où les heureux hasards. Il s’agit essentiellement d’un “méta-réseau” – organiser le coeur du réseau informatique, mais en laissant ses tentacules libres de tout mouvement. Je trouve que c’est le meilleur moyen de faire des trouvailles.” (Merci Suzanne et Audrey pour la traduction simultanée … si vous avez mieux, les commentaires sont ouverts …)

De fait, il n’y a ni contrôle, ni aléatoire dans le processus décrit dans ce billet du NYTimes. Juste des processus de filtrage en amont (les liens choisis par Mme Popova), et en aval (les Followers décidant de suivre le compte de Mme Popova). Si sérendipité il y a, il faut alors la chercher dans le pourcentage de chances qu’un individu X s’intéressant grosso modo aux mêmes thèmes que Mme Popova découvre son compte et s’y abonne. Mais cela est encore un autre processus … sur lequel nous reviendrons plus tard.

Ne pas confondre participatif et contributif. Notons simplement que si les outils changent, les modalités et typologies de la participation sur le web contributif ne varient guère : la distinction entre les suiveurs et les suivis sur Twitter, entre ceux qui signalent beaucoup dans différents domaines et ceux qui signalent un peu moins mais de manière plus qualifiée ou plus thématique renvoie à l’ancienne dichotomie entre Linkers et Publishers au début de l’essor de la blogosphère. La règle wikipédienne d’une immense majorité de commentateurs et d’un très petit nombre de rédacteurs, se décline également sur Twitter comme elle se déclinait encore hier sur la blogosphère. Bref, beaucoup les gens participent beaucoup (ils “suivent” sur Twitter, corrigent sur Wikipédia, agrègent ou commentent sur les blogs), mais peu de gens contribuent réellement (en produisant ou signalant des contenus originaux). Tout cela pour dire que la seule production et/ou diffusion de contenus à des communautés non-constituées ou très largement éparses et aléatoires, ne peut suffire à parler de sérendipité, a fortiori de sérendipité contrôlée … ou non-contrôlée.

La sérendipité chez les Jivaros : à propos des réducteurs d’URL. Le témoin emblématique de cette logique du surgissement est tout entier contenu dans l’affichage des URL réduites sur Twitter : à part quelques hashtags (mot-clés) eux-mêmes souvent délibéremment aléatoires, rien ne m’indique la nature réelle de la cible desdits liens dans une adresse du type : “http://bit.ly/Tdki5af”. Rien sinon le fait qu’ils émanent de l’un des prescripteurs que j’aurai choisi (et auquel j’aurai donc souscris), ou qu’ils bénéficient déjà d’une large boucle d’écho (= qu’ils sont déjà largement repris sous forme de RT – retweet – par d’autres contributeurs). Notons d’ailleurs de manière tout à fait empirique (rien de scientifique dans cette observation) que nombre d’utilisateurs de Twitter synchronisent leurs Tweets avec leur compte Facebook (et réciproquement) : une info pourra donc ainsi bénéficier d’une boucle d’écho internalisée (publiée ET reprise sur Twitter) ou externalisée (publiée sur Twitter et reprise sur Facebook par exemple).

Nouvelle(s) infobésité(s) ou échec du filtrage ? Telle est l’une des questions soulevées par Clay Shirky dans l’une de ses interventions (“Information overload versus filter failure” / Sept. 2008). S’inscrire à ces outils du web contributif implique, pour pouvoir profiter à plein de leur potentiel de “recommandation”, de sérendipité, s’inscrire à ces outils disais-je, implique – sous peine de s’effondrer sous le poids d’une infobésité galopante – de gérer très précautionneusement le potentiel de surgissement des mêmes outils, à savoir :

» isoler, en amont, les prescripteurs, les “‘autorités”, le “collège invisible” auxquels ou pourra accorder une confiance sinon aveugle, du moins sans grand risque de voir celle-ci déçue.
» et/ou jouer sur les fonctionnalités de “liste” et autres dispositifs de filtrage interne dont ils disposent (mais cela est nettement moins efficace que le point précédent)
» s’appuyer sur les filtres que d’autres ont déjà mis en place sur des thématiques ou des centres d’intérêt proches des miens (= suivre les personnes suivies par ceux qui je suis moi-même)
» bref … réapprendre à faire avec Twitter et les réseaux sociaux ce que l’on avait mis quelques années à apprendre à faire avec les blogs.

L’infobésité n’a pas changé de nature ni d’amplitude, elle a simplement contaminé de nouveaux outils, emprunté de nouveaux vecteurs. Et la sérendipité avec elle.
Bien plus que le nombre de contributeurs ou de producteurs d’informations, bien plus ques gigantesques écarts d’échelle entre le nombre d’emetteurs et le nombre de récepteurs, c’est la nature pervasive du web social qui est le principal facteur de l’accroissement – réel – de la sérendipité et de son corollaire, l’accroissement – supposé ou ressenti – du phénomène d’infobésité.

CHAPITRE SECOND / Quelles ingénieries pour la sérendipité ?


De fait, à observer et analyser un grand nombre de manifestations de la sérendipité dans les différents outils de recherche ou d’accès à l’information, la seule ingénierie manifeste est d’ordre relationnelle : soit en jouant sur le graphe – relationnel – d’un certain nombre d’éléments (les pages web par exemple) pour en faire remonter certains de manière plus ou moins aléatoire, soit – et c’est là le point le plus intéressant – en s’appuyant sur les recommandations ou signalements de notre réseau relationnel (ce qui est le principe même d’un site comme twitter). Ces ingénieries relationnelles peuvent alors se scinder en deux groupes :

» ingénieries relationnelles machiniques.
» ingénieries relationnelles humaines.

Remarque : Ingénieries que d’autres (Dominique Cardon en l’occurrence), interrogent d’un point de vue plus sociologique et identitaire.
Ces deux groupes peuvent eux-mêmes se resituer dans trois grands âges de la sérendipité sur le web.

Les trois âges de la sérendipité sur le web.

» L’âge de pierre. Celui des premières pages web. Des premiers liens hypertextes codés en HTML et pour lesquels bien souvent l’ancre de départ ne laissait en rien présager la nature de la page sur laquelle on allait arriver …

» L’âge de fer. Celui de l’arrivée des machines, moteurs de recherche en tête, qui se font le relai tantôt revendiqué tantôt accidentel de phénomènes de sérendipité dans le couple alliant nos requêtes et nos navigations.

» L’âge d’or. Celui des réseaux sociaux au sens large, c’est à dire de la possibilité offerte de faire du conseil de nos proches un calcul, une “computation” comme les autres.

Le côté obscur de la sérendipité : Ingénieries relationnelles machiniques.

Elles relèvent uniquement du truquage : Les 5 exemples suivants en sont l’illustration sinon la preuve.

» Marketing Ornemental : le bouton “feeling lucky” de Google. Qui permet en fait d’escamoter la page de résultats pour directement boucler sur le site apparaissant en tête de ladite page,

» Ingénierie relationnelle : le FriendFinder de Facebook. Il s’agit de l’application coeur de Facebook, qui fait remonter des “amis” possibles en fonction des connexions déjà existantes sur le mode “les amis de mes amis sont – potentiellement – mes amis”. Ce qui en a l’apparence mais qui ne relève définitivement pas de la sérendipité. Simple ingénierie relationnelle. Mais – et c’est là toute l’habileté du dispositif – un effet de surgissement qui prend le masque de l’inattendu, du fortuit pour mieux séduire et amener l’usager exactement là où il (facebook) le souhaite : c’est à dire à enrichir son réseau relationnel pour mieux pouvoir le monétiser en créant une dépendance à ce service de “mise en relation”

» Ciblage comportemental industriel : les recommandations d’Amazon. Les recommandations de sites marchands comme Amazon sont avant tout du marketing industriel (ne reposant en tout état de cause que sur le profil des achats ou des consultations précédentes et sur l’organisation par thématique et par genre du site, quand elle ne sont pas simplement bidonnées … pour plus de détails et d’explications, se reporter à cet excellent diaporama ;-) “Les industries de la recommandation sont-elles recommandables ?“)

» Sérendipité embarquée (embedded serendipity) ou le packaging inversé : technique spécifique aux sites de vidéos permettant d’encapsuler, à la fin de la vidéo visionnée, d’autres séquences vidéo supposément “en rapport” avec la vidéo initiale. Soit l’inverse du packaging puisque c’est cette fois
après avoir utilisé (visionné) le produit que l’on vous suggère d’en acheter (visionner) d’autres. Là encore il s’agit d’une intervention machinique qui ne doit pas grand chose à l’aléatoire même si elle est encore, et de loin, la moins bien contrôlée par ceux qui la mettent en oeuvre … qui n’a jamais été surpris à la fin du visionnage d’une vidéo de voir s’afficher d’autres vidéos pas franchement “en rapport” avec la vidéo initiale ? Ce qui explique que les sites hôtes travaillent d’arrache-pied à mettre en place des mécanismes pour mieux “contrôler” cette sérendipité embarquée.

» l’anti-sérendipité ou la sérendipité suggérée : représentée par les fonctions du type “suggest” sur les moteurs de recherche. C’est à dire les suggestions en cours de frappe. Là encore, force est de constater que l’aléatoire n’a qu’une part très relative puisque les requêtes ainsi “suggérées” sont celles les plus saisies par les internautes. On est donc davantage dans l’affichage d’une dynamique de “mainstream” que dans la recherche d’un surgissement aléatoire authentique. On ne cherche pas à suggérer à l’usager des pistes nouvelles ou a priori déconnectées de sa recherche initiale, on lui suggère les pistes les plus explorées, les sentiers les plus rebattus.

Ce sont là les industries de la recommandation à leur apogée, maximisant leur capacité à capter l’attention dans un écosystème clôt. Sauf dans le cas particulier de Google (pour des raisons évidentes liées à la nature même du moteur de recherche), tous les effets de rebond résultant de cette sérendipité se font à l’intérieur du site vecteur de sérendipité.

A noter également : si l’on croule sous les articles à la gloire de la sérendipité à propos de tout et de n’importe quoi (“sérendipité et DRH”, “marketing et sérendipité”, “culture de la pomme de terre et sérendipité”), on peine en revanche à trouver quelques sons de voix discordants. D’où l’intérêt de cet article du NYTimes : “Serendipity : Lost in the Digital Deluge“, qui pointe le danger d’une uniformisation des pratiques (“We are discovering what everyone else is learning, and usually from people we have selected because they share our tastes.“) au travers de la massification des accès et l’incapacité du numérique à rivaliser avec le monde réel sur le terrain de la sérendipité (prenant l’exemple du passant que l’on croise en train de lire un bouquin – et nous d’être surpris et attiré par ledit titre, association fortuite impossible si l’on croise quelqu’un en train de bouquiner sur un reader sony …). L’exemple me semble assez mal choisi mais, et les 5 ingénieries relationnelles machiniques décrites ci-dessus l’illustrent, il y a un risque réel d’affaiblissement de la fortuité derrière des pratiques et des ingénieries en fait de plus en plus normées et laissant le moins de place possible à l’aléatoire s’il n’est pas entièrement tourné vers le marketing et la publicité comportementale.

Heureusement il y a findus les ingénieries relationnelles humaines.

Le retour du Jedi : Ingénieries relationnelles humaines.

Si, pour les précédentes (ingénieries relationnelles machiniques), c’était l’intériorité qui primait (le système ne renvoyant qu’à lui-même ou à des sites tiers sous son contrôle), les secondes (ingénieries relationnelles humaines) peuvent d’abord se caractériser par leur extériorité. Leur principe même est de permettre de s’affranchir d’un espace de navigation dédié (tel site, tel réseau social) pour offrir au “taux de rebond” de la sérendipité une amplitude maximale.
L’étau du rebond. Plus précisément, là où le taux de rebond est – en terme de référencement, de marketing et de SEO – une métrique qu’il faut s’efforcer de contenir à la baisse, on pourrait définir la sérendipité instrumentalisée (c’est à dire mise en place à dessein) comme “l’ensemble des techniques permettant, pour un individu, un site ou un écosystème de marque/produit, de pousser au maximum leur taux de rebond”.

Pour donner leur plein rendement, les ingénieries relationnelles humaines de la sérendipité ont besoin d’exister, sinon dans une obscurité, du moins dans un relatif clair-obscur numérique. A ce titre, l’hétérarchie de Twitter, son système à contrainte (140 caractères ne permettant généralement pas de caractériser suffisamment une information ou un signalement), l’opacité totale (au sens d’indéchiffrabilité) de ses URL raccourcies, et sa réticence à injecter du sens (de la hiérarchie) dans les relations “suivis-suiveurs” (following / followers), en font l’outil paradigmatique d’une sérendipité “primitive”.

On résume un peu ?

D’abord, la sérendipité “réelle”, telle que théorisée par Merton, trouve de moins en moins sa place dans le monde numérique. Twitter est, pour l’instant, la seule exception semblant confirmer cette règle. Ensuite, les ingénieries de la sérendipité sont en plein essor et tendent à structurer et à légitimer une “économie de la sérendipité” pour reprendre l’expression de Didier Durand. En d’autres termes …

» (temps 1) la stochastique initiale du web a progressivement fait place nette a une hiérarchisation organique, mise en mémoire et en accès par les moteurs de recherche.

» (temps 2) L’essor du web contributif a ensuite permis de dépasser et de transgresser littéralement cette hiérarchisation monolithique (et monopolistique) en y réinjectant de l’humain et du social, bref, de l’aléatoire.

» (temps 3) Par le biais de différentes fusions et/ou acquisitions (delicious pour Yahoo, Youtube pour Google, essor des entrepôts géants Amazon-like, etc …), certains des mécanismes aléatoires liés à l’humain sont devenus “calculables”, programmables, donnant alors naissance aux industries de la recommandation (cf ci-dessus le côté obscur de la sérendipité), revêtant ainsi des atours séduisants de l’aléatoire et du surgissement ce qui demeure pourtant très trivialement l’exploitation systématique (mais pour autant ingénieuse) d’une gigantesque base de donnée relationnelle.

Le moteur social, c’est comme la voiture électrique : ce sont les constructeurs qui décident. Pas les consommateurs, ni les technologies. Car le moteur social, qui semblait pourtant si prometteur à l’été 2005, n’existe toujours pas en 2010, et ce malgré les récentes annonces (Juillet 2009) de Google en la matière. Pour autant, l’ensemble des moteurs de premier plan se sont, chacun à leur manière, “socialisés”, en partie le biais des options de personnalisation, en partie grâce à l’interpénétration des différents outils de leurs écosystèmes, en partie grâce aux techniques de data-mining transférées dans l’immensité du web des données. Soit l’asservissement à une algorithmie de plus en plus englobante, de plus en plus “impliquante” du potentiel de fortuité des recommandations sociales telles qu’elles transparaissent dans les outils-supports de leurs médiations (ce qui n’est déjà pas si mal, je vous l’accorde).

“La sérendipité est comme une pertinence seconde.” Je laisse la conclusion de ce billet à André Gunthert, interviewé par Hubert Guillaud sur InternetActu :

  • Sur Youtube, il y a toujours une réponse. La sérendipité est comme une pertinence seconde, qui vient se substituer à la réponse exacte.

J’ajoute simplement, en paraphrasant Mallarmé, que la question est peut-être aujourd’hui de savoir si “Un coup de sérendipité, jamais, n’abolira la pertinence.” Ou pas. J’ajoute aussi que si “la sérendipité est une pertinence seconde“, et que si elle “se substitue à la réponse exacte“, ce n’est pas seulement lié au fait qu’il y ait “toujours une réponse“, mais – à mon avis – au moins autant à l’importance que les ingénieries de l’aléatoire occupent aujourd’hui dans le développement de l’écosystème des outils de recherche et d’accès à l’information. J’ajoute enfin qu’il serait intéressant de mener une étude sur la pregnance cognitive de cet état de fait dans les comportements de requêtage et de navigation des usagers (pour voir dans quelle mesure ils “intègrent” ou “rejettent” cet habitus).

» Article initialement publié sur affordance

» Photo d’illustration par jef safi (‘pictosophizing) sur Flickr
]]> http://owni.fr/2010/02/04/ingenieries-de-la-serendipite/feed/ 3 Chronologie musique et Internet http://owni.fr/2010/01/05/chronologie-musique-et-internet/ http://owni.fr/2010/01/05/chronologie-musique-et-internet/#comments Tue, 05 Jan 2010 12:54:12 +0000 Babgi (sawndblog) http://owni.fr/?p=6717 A l’occasion de ce changement de décénie, il est intéressant de prendre un instant et de se retourner pour observer ce qu’a été l’histoire de la musique et d’internet au cours des trente dernières année… Cela prend certes un peu de temps de rassembler cette information, mais c’est édifiant …

1980 : invention de la mémoire flash.

1987

Le premier brevet du format MP3 est pris. Plus de soixante brevets auront entouré le célébrissime format musical. les premiers ont déjà expiré, d’autres resteront encore valables jusqu’en 2017 ; ceux de la version pro -bien moins populaires- seront encore en vigueur jusqu’en 2023, voir 2027.

1990

INTERTRUST est crée. Dans un premier temps, cette société commercialise des brevets pour la mise en place de DRM (dispositifs de sécurité sur les CD musicaux). La société fait une introduction en bourse en 1999, puis est rachetée par SONY et PHILIPS. Aujourd’hui encore, INTERTRUST est considérée comme l’une des principales détentrices de brevets liés à la DRM. Elle détient par exemple plusieurs des brevets du format BLU-RAY.

1991

Le MP3 est accepté comme standard de compression/décompression par l’ISO.

1983

sorti du Pentium, premier processeur à pouvoir décoder le mp3 en temps réel, prélude à l’arrivée massive de la musique sur un nouvel appareil : le PC;  L’usage musical en a pourtant été très restreint. D’une part car la plupart des ordinateurs n’étaient pas équipés d’une carte son performante, et d’autre part en raison des contraintes d’espaces mémoires. Premier portable mp3 : le RIO avec 10Mo de mémoire.

1994

Les Rolling Stones sont le premier groupe à diffuser leur musique en live sur internet, en utilisant Real.

1995

création de REALNETWORK, la première start-up dont l’objet consistait (et consiste toujours) à fournir une suite d’outils de compression/décompression permettant l’écoute de musique via internet. REAL a par la suite (en 2001) lancé RHAPSODY, un service de musique en ligne.

1997

Lancement du site mp3.com qui deviendra immédiatement la bête noire de l’industrie musicale.

1999

juin : ouverture de NAPSTER… Qui fermera ses portes sous sa forme initiale (du pear-to-pear pur et dur) en juillet 2001… croulant sous les plaintes de la RIAA (l’équivalent de notre SNEP) et  suite à une injonction du Ninth Circuit Court (l’équivalent de notre Tribunal des Référés) de Washington.

septembre : les licences 3G sont attribués à FranceTelecom Mobile (ORANGE) et à SFR. Dans toute l’Europe, les attributions rapportent plus de 71 milliards d’Euros !

killingmusicindustry

2000

mars : MUSIWAVE (initialement Musiwap) est fondée.

juillet : SIRIUS est le premier satellite musical jamais lancé. Il diffuse sur le territoire US de la musique en qualité CD, son premier client est HERTZ

septembre :  KAAZa se lance.

2001

mai : VIVENDI rachète Mp3.com pour 372 millions de dollars

octobre : APPLE lance son premier IPOD, initialement de 5Go, en février, est lancé un 10Go. ITUNES, sans e-Commerce, avait été lancé quelques mois auparavant.

2002

NAPSTER dépose le bilan, ils seront finalement repris par Roxio.

2003

septembre : la RIAA poursuit 261 personnes pour violation des droits de distribution (usage en pear-to-pear). L’opinion jusqu’alors indifférent, prend rapidement fait et cause pour les personnes incriminées.

avril : ITUNES se lance en version e-commerce. Deux mois plus tard, un millions de titres sont vendus. en décembre 2003, 50 millions de titres auront été vendus.

août : lancement de LastFM.com

novembre : fusion de SONY et de BMG. MP3.com est revendu à Cnet.com

2004

mai : Itunes version e-commerce se lance en Europe.

Cette année là, les ringtones (sonneries de téléphone) rapportent plus de 3,5 milliards de dollars.

2005

décembre : lancement de Youtube.

2006

janvier : Fondation de Ilike

février : Musiwave est vendue à Openwave pour 141 millions de dollars

juillet :  Microsoft lance Zune. un concurrent de l’Iphone.

octobre : fondation de mxp4

décembre : Youtube racheté par Google pour 1,6 milliard de dollars… glups.

2007

janvier : lancement de l’Iphone

avril : APPLE annonce avoir vendu 100 millions d’Ipod

août TERRA FIRMA rachète EMI…

octobre : Amazon lance son offre de musique en ligne.  Radiohead lance son album “In Rainbows” en “pay-as-you-like” (payez ce que vous voulez).

novembre : fondation de SAWND.

2008
(janvier) Apple annonce qu’elle va progressivement retirer les DRM de sa plateforme Itunes.

2009

juin : la mort de Michael Jackson provoque un afflux de requêtes si important qu’Internet ralenti dans de nombreuses régions du monde, particulièrement au Japon et en Allemagne.

octobre : La RIAA -et en France, le SNEP fait le même constat- annonce que le marché de la musique enregistrée a diminué d’environ 2/3 depuis 2000.

décembre Apple rachète Lala.com

et l’histoire continue …

jackson

»Article initialement publié sur Sawndblog

]]>
http://owni.fr/2010/01/05/chronologie-musique-et-internet/feed/ 4