OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le neutrino a-t-il tué Einstein ? http://owni.fr/2011/09/26/neutrino-tue-einstein-sciences-physique-particule/ http://owni.fr/2011/09/26/neutrino-tue-einstein-sciences-physique-particule/#comments Mon, 26 Sep 2011 11:43:02 +0000 Roud http://owni.fr/?p=80938 C’est la déferlante depuis un tweet (!) de l’agence Reuters : les chercheurs du projet OPERA au CERN ont mesuré des neutrinos allant plus vite que la lumière. Tous les médias internationaux ont quasi-immédiatement embrayé, transformant la nouvelle en fait scientifique avéré renversant l’”icône Einstein” ( qui illustre la plupart des articles sur le sujet, cf. Le Figaro, Libé, Le Monde). Alors, est-ce la fin de la relativité ? Petite FAQ.

Qu’est-ce qu’un neutrino ?

L’histoire scientifique du neutrino est déjà longue et parsemée de nombreux écueils scientifiques. C’est en 1930 que Pauli postule son existence. Certaines désintégrations nucléaires ne donnaient alors pas autant d’énergie qu’attendu. Or le bon principe universel de Lavoisier, “rien ne se perd, rien ne se crée, tout se transforme” s’applique aussi à la physique des particules; d’où l’idée de Pauli de proposer que l’énergie manquante est peut-être émise sous la forme d’une particule dont on ne connaît pas encore l’existence.

Ce n’est qu’en 1956 que l’existence du neutrino est démontrée pour la première fois expérimentalement. 26 ans, cela peut paraître long, mais il faut dire que le neutrino est un sacré galopin : il n’interagit quasiment pas avec la matière, ce qui rend sa détection difficile. Une image parlante tirée de Wikipedia :

Il faudrait une épaisseur d’une année-lumière de plomb pour arrêter la moitié des neutrinos de passage.

Il faut donc des détecteurs énormes pour observer des neutrinos expérimentalement, ce qui fait que les neutrinos restent des particules assez mystérieuses, même aujourd’hui.

L’expérience OPERA dont on parle depuis quelques jours vise précisément à mieux caractériser les propriétés des neutrinos, et notamment ce qu’on appelle “les oscillations de saveurs”. Il existe en effet trois types (“saveurs”) de neutrinos : les neutrinos électroniques, muoniques et tauiques. Or, un neutrino typiquement émis dans une réaction nucléaire est en réalité une superposition quantique de ces trois neutrinos (oui, comme dans le chat de Schrödinger). Quand on observe un neutrino, réduction du paquet d’ondes oblige, on n’observe qu’un des trois types de neutrinos.

Le problème est que les trois types de neutrinos ont des vitesses de propagation différente. Du coup, notre neutrino de Schrödinger, en fonction de l’endroit où on l’observe, va avoir une probabilité plus ou moins grande d’être mort ou vivant (ou plutôt électronique, muonique et tauique). D’un point de vue expérimental, on va donc observer plus ou moins de neutrinos d’un type en fonction de la distance à la source d’émission des neutrinos : c’est pour cela qu’on a le sentiment que la saveur du neutrino “oscille”.

Le but premier d’OPERA, donc, est de caractériser ces oscillations. On envoie un faisceau de neutrinos bien caractérisé depuis le Mont Blanc, on se met à Gran Sasso pour mesurer les propriétés des neutrinos qui ont traversé en ligne droite l’écorce terrestre (puisqu’ils n’interagissent pas avec la matière de toutes façons).

L'expérience OPERA

Avant toute expérience précise, on calibre, on mesure et soudain …

… Damned, mes neutrinos ont l’air de voyager plus vite que la lumière !

Voilà donc la nouvelle.

Entre 2009 et 2011, les chercheurs font des tas de mesures. On sait mesurer la distance parcourue à 20 cm près, tenant compte de la dérive des continents grâce à un GPS (on y reviendra). Le temps de propagation du faisceau à 10 nanosecondes près. Et on trouve que le neutrino semble avoir mis 60 nanosecondes de moins que la distance qu’aurait mise un photon – dommage que celui-ci ne traverse pas aussi facilement l’écorce terrestre, on aurait pu faire une course .

Les chercheurs cherchent des mois l’erreur, la faille … Et ne trouvent rien. Ils décident donc de partager leur observation avec le reste du monde, sur l’arXiv, le site de dépôt des articles de physique, dans un article au titre sobre et factuel :

Measurement of the neutrino velocity with the OPERA detector
in the CNGS beam

L’annonce fuite avant même que l’article n’ait été déposé, et Einstein, ce loser, se retrouve en photo dans tous les articles .

Alors, il a tort ou pas Einstein ?

Non, Einstein n’a pas tort.

Une bonne fois pour toute, non, Einstein n’a pas tort.

Rappelons-le, la théorie de la relativité d’Einstein est l’une des mieux vérifiée. A titre d’exemple, l’an dernier, l’effet de ralentissement du temps sous l’influence de la gravité prédit par la théorie a été vérifié expérimentalement avec une précision extraordinaire de moins de 0.0000007 %. Et si les chercheurs d’OPERA pensaient différemment, ils n’auraient pas utilisé le GPS pour mesurer la distance parcourue par le faisceau, puisque, rappelons-le, sans relativité, il n’y a pas de GPS.

Bref, même dans l’hypothèse improbable où ces mesures se confirmaient, les bases de la théorie de la relativité resteraient car cette théorie marche dans tous les cas existants jusque maintenant, tout simplement; on assisterait probablement à une extension de la théorie existante (tout comme la relativité elle-même était une extension de la théorie de Newton). Il n’y aura pas de table rase sur le mode “Einstein avait tort”, seulement des extensions de la théorie, normales lorsque l’on touche à de nouvelles frontières expérimentales . Et les physiciens ont à peu près autant d’imagination scientifique que les psychologues évolutionnistes pour expliquer leurs observations rétrospectivement, on voit par exemple déjà les idées de dimensions supplémentaires surgir dans les articles de journaux.

Mais la réalité, c’est qu’avant de s’exciter, il faut regarder froidement ces résultats à l’aune des résultats expérimentaux passés . Et c’est principalement là que le bât blesse : l’immense majorité des expériences connues sont compatibles avec la relativité restreinte, y compris pour les neutrinos.

L’exemple qui revient souvent ces temps-ci est l’expérience naturelle de la supernova 1987A. Une supernova est une explosion d’étoile consécutive à un effondrement gravitationnel, qui crache énormément de neutrinos. Peu après l’effondrement, des réactions de fusions entraînent l’explosion nova et donnent lieu à une émission de lumière très intense.

En 1987, donc, les observatoires terrestres ont eu l’immense chance d’attraper par hasard une supernova en direct. Ils ont d’abord détecté un afflux énorme de neutrinos venant de l’étoile Sanduleak -69° 202a, étoile qui, 3h après, explosa en supernova, la première visible à l’oeil nu depuis 1604. Cet écart de 3h est conforme à la théorie, qui prévoit un petit délai entre l’émission de neutrinos dus à l’effondrement et l’émission de la lumière due à l’onde de choc de l’explosion arrivant à la surface et explosant l’étoile de l’intérieur. Si les neutrinos voyageaient plus vite que la lumière conformément à l’observation d’OPERA, compte-tenu de la distance énorme entre l’étoile et la terre, ils auraient dû arriver des années avant la lumière de la supernova.

Bref, à ce stade, il faut raison garder et juste se contenter de dire qu’il y a quelque chose qu’on ne comprend pas. Ce petit quelque chose est peut-être de la physique, mais ce peut-être aussi une erreur bête quelque part (un bug dans un programme ?) ou une erreur plus subtile qu’on finira par découvrir après réflexion. Et on ne saura qu’en confirmant expérimentalement ailleurs.

Que révèle cette histoire ?

Que décidément, la temporalité et la dynamique lente propre à la science n’est pas vraiment compatible avec la dynamique médiatique. La science fonctionne sur des échelles de temps très longues : entre le début d’un projet et sa publication, il peut se passer des années. Si un nouveau phénomène surprenant est découvert, il faut encore des années supplémentaires voire des décennies pour qu’il soit confirmé, soit jugé intéressant et nouveau, et rentre dans le corpus de la science officielle validée. En fait, on pourrait presque dire que l’actualité scientifique n’existe pas : une découverte mettant des années à se décanter, nos échelles d’attention médiatique courtes sont totalement incapables d’appréhender son évolution. Ce qui existe en revanche, c’est une actualité des publications scientifiques, au rituel plus adapté à notre soif de nouveautés extraordinaires quotidiennes. Les revues scientifiques et les institutions jouent sur cette ambiguïté : embargo avant publication, conférences de presse sont un moyen de “concentrer” dans le temps la science, qui en réalité, est un processus long, lent, et très dilué.

Ici, très clairement, les médias ont cherché à court-circuiter encore davantage cette maturation scientifique lente. D’abord, l’information a fuité avant même le dépôt de l’article sur l’arXiv. L’article lui-même n’a pas été revu par les pairs, l’arXiv n’étant qu’un dépôt; il se revendique plutôt comme un fait troublant sur une grosse expérience internationale qu’il faut comprendre pour que la science continue, d’où la publication. Même si c’est peu probable à ce stade compte tenu de l’énormité prise par cette affaire et de la crédibilité du CERN, on ne peut pas exclure qu’il y a ait une faille dans l’article lui-même, qui serait détectée par l’œil laser d’un expert. Même s’il n’y a pas d’erreur dans l’article, il est possible que les résultats ne puissent être reproduits ailleurs, ce qui signifierait tout simplement qu’il y avait une erreur indétectable dans l’expérience.

On a également eu l’impression d’une surenchère terrible entre les médias. Tout d’un coup, l’histoire s’est répandue comme une traînée de poudre, on a eu l’impression que tous les journaux ont voulu très vite sortir un article sur cette histoire. Trois conséquences naturelles : absence de mise en contexte, excès de sensationnalisme et utilisation de clichés quasi identiques d’un média à l’autre. Nature est le seul ayant évoqué les expériences type supernova pour nuancer les résultats.

- Ajout 25 Septembre : on me signale que Sylvestre Huet (Libération) avait fait de même dans son chat et son article dès vendredi, et le Monde du week-end en a fait autant. Partout, on nous dit qu’Einstein, l’icône de la science, serait déboulonné. C’est l’emploi récurrent du mème “untel a tort”; personnalisation outrancière de la science qui correspond à cette image de la science par “coup d’éclat” qui n’a rien à voir avec la vraie science de long terme évoquée plus haut. Le paradoxe est d’autant plus grand que l’expérience OPERA s’est justement étalée sur trois ans et que l’article en question est bien évidemment co-signé par une pléthore d’auteurs.

Bref, la science avance, et les médias traditionnels semblent (re)tomber dans des travers vraiment néfastes pour l’image de la science même. Ce qui est effrayant est de les voir s’y précipiter comme un seul homme sous la pression de la compétition médiatique; sur le sujet les twittosphères et blogosphères scientifiques m’ont paru bien supérieures (pour moi aussi, terminer sur un cliché).

[Et je déplore aussi, pour moi y compris, que tout l'agenda de la discussion scientifique dans la cité soit dicté par ce genre d'événements]

- Ajout 8h50: Le Monde de ce week-end est bien meilleur (bravo David !)


Illustrations: à l’intérieur d’un détecteur de neutrinos (domaine public Fred Ullrich), CC FlickR monado, CC OPERA, CC Wikimedia ESO/L. Calçada

]]>
http://owni.fr/2011/09/26/neutrino-tue-einstein-sciences-physique-particule/feed/ 34
Cellules souches: idéologie et science parlementaires http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/ http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/#comments Thu, 30 Jun 2011 14:29:10 +0000 Roud http://owni.fr/?p=72311

Dans un discours devant les militants, samedi 25 juin, François Fillon a fustigé le décalage entre les défis que le monde nous lance, et les réponses si légères et si décalées qui sont avancées (source Le Monde).

Il parlait bien sûr du Parti Socialiste. Peut-être aurait-il dû plutôt parler de ce que vient de voter le Parlement en matière de cellules souches.

Car s’il y a bien un exemple patent où l’idéologie modèle les décisions politiques, c’est dans le domaine de la recherche, et en particulier la recherche biomédicale.

En France, les nouvelles lois sur la bioéthique, bien loin de simplifier la donne, vont en effet mettre de nouveaux bâtons dans les roues du secteur. Il n’est pas impossible que le domaine des cellules souches embryonnaires, déjà bien peu vaillant car simplement toléré par dérogation, finisse par mourir en France. La raison est donnée par Marc Peschanski dans Nature News :

Désormais, il nous appartient à nous, chercheurs, de démontrer qu’il n’existe pas d’alternative à nos propres recherches sur les cellules souches [embryonnaires], alors que la charge de la preuve reposait auparavant sur l’Agence de la bio-médecine.

Bref, non seulement le chercheur doit penser, chercher, rédiger des demandes de financement (non garanties), mais en plus, il doit maintenant démontrer qu’il ne peut pas faire autrement dans ses recherches !

L’inattendu au cœur de la recherche

On est bien loin de l’idéal de liberté académique ou encore du programme Vannevar Bush et de la “République des Sciences” après guerre :

Les découvertes entrainant les progrès médicaux ont souvent pour origine des domaines obscurs ou inattendus, et il est certain qu’il en sera de même à l’avenir. Il est très probable que les progrès dans le traitement des maladies cardio-vasculaires, rénales, du cancer et d’autres maladies similaires seront le résultat d’avancées fondamentales dans des sujets sans rapport avec ces maladies, et peut-être même d’une façon totalement inattendue pour le chercheur spécialiste. Les progrès futurs nécessitent que la médecine toute entière, et les sciences fondamentales telles que la chimie, la physique, l’anatomie, la biochimie, la physiologie, la pharmacologie, la bactériologie, la pathologie, la parasitologie. etc… soient largement développées.

Oui, l’inattendu est au cœur de la recherche scientifique, il est donc absurde voire contre-productif pour le chercheur lui-même d’essayer de montrer que d’autres systèmes qu’il ne connaît pas pourraient (ou pas) potentiellement répondre aux questions posées ! Sans compter que si d’autres pistes alternatives existent pour résoudre un problème, seront-elles pour autant financées si elles sont beaucoup plus chères ?

Une volonté de tuer la recherche sur les cellules souches ?

En réalité, on peut même se demander si le but de la loi n’est pas fondamentalement de tuer le domaine tout en faisant bonne figure, lorsque la loi de bioéthique précise que :

Les recherches alternatives à celles sur l’embryon humain et conformes à l’éthique doivent être favorisées.

Le sous-entendu est clair : les recherches sur les cellules souches embryonnaires ne seraient donc pas éthiques. Peu importe l’enjeu scientifique, peu importe même le débat éthique, les sous-entendus religieux (la fameuse équation embryon=être humain) l’ont emporté. Au Sénat, l’argument classique a été énoncé par M. Bruno Retailleau, sénateur MPF de Vendée :

Ce changement de régime juridique représente également une régression anthropologique. Je sais qu’il n’y a pas d’accord entre nous sur le moment où l’on franchit le seuil de la vie. Qui peut dire quand commence la vie ? Pourtant, nous voyons bien qu’il existe un continuum entre ces cellules qui se multiplient dans les premiers jours et ce qui deviendra vraiment une personne humaine, un sujet de droit. Or ce continuum, qui résulte du fait que chaque étape du développement de l’embryon contient la précédente, rend impossible la détermination précise du seuil d’entrée des cellules dans le champ de la vie humaine.

C’est vrai, je ne suis pas capable de dire quand un embryon devient un être humain, je ne suis pas capable de définir ce qu’est exactement un être humain. En revanche, je suis capable de donner une condition partagée par tous les être humains : par exemple, tous les être humains que je connais ont un cœur, des muscles, des neurones. Choses que n’ont pas des embryons au premier stade de développement. L’argument du continuum m’a toujours semblé fallacieux dans la mesure où les transformations successives de l’embryon (gastrulation, neurulation, etc…) changent évidemment sa nature, tout comme la fécondation elle-même.

Que penser aussi de ce genre d’arguments mystico-religieux sur la “toute-puissance” que les chercheurs transgresseraient (Marie-Thérèse Hermange, sénatrice UMP de Paris) :

Il ne s’agit pas de s’opposer à la recherche en tant que telle, mais il convient de ne pas oublier non plus que le coût de cette politique est la destruction d’un début de vie humaine. J’observe d’ailleurs que le début de la vie humaine intéresse les chercheurs dans les cinq premiers jours, c’est-à-dire au moment où les cellules sont « totipotentes », selon le terme technique employé, ce qui illustre bien le fait que cette « toute-puissance » initiale joue un rôle majeur dans le développement futur de l’être humain. Il me semble donc important d’utiliser au maximum les solutions de rechange existantes qui sont bien plus efficaces.

Pour répondre sur le même mode, la toute-puissance, c’est aussi le Chaos fondateur des mythes grecs, celui qui recèle tout le potentiel mais qui doit s’auto-organiser pour l’exprimer et engendrer les Dieux. Sans cette auto-organisation, il n’ est rien d’autre qu’un potentiel inutile, un chaos au sens commun du terme. Les Anciens avaient peut-être un sens plus développé du sacré que la civilisation judéo-chrétienne.

Le Parlement français est en réalité sur la même ligne que les mouvements chrétiens conservateurs américains, qui, suite à la levée des obstacles juridiques bushiens par Obama, se sont lancés il y a quelques mois dans une grande bataille judiciaire visant à interdire la recherche sur les cellules souches pour les mêmes raisons et avec les mêmes arguments “alternatifs” (cellules souches adultes, cellules iPS) utilisés par les Parlementaires français. J’en avais parlé ici; le dernier épisode en date étant que les choses ont l’air de s’arranger pour les chercheurs sur les cellules souches embryonnaires.

Alors que la campagne de 2012 se lance, et qu’à n’en pas douter on parlera d’avenir et de compétitivité future pour la France, le Parlement Français a pris une décision lourde de conséquence pour la recherche et la future industrie biomédicale française. Au nom de principes moraux pour le moins discutable, et sans réel débat éthique et scientifique fondé, le Parlement vient peut-être de porter le dernier coup fatal à ce domaine de recherche en France.

En 2012, votons pour la Science.


Photos Wikimedia Commons : Domaine public et CC-by Nissim Benvenisty

Article publié initialement sur Matières vivantes

]]>
http://owni.fr/2011/06/30/cellules-souches-ideologie-parlementaires/feed/ 7
Les geeks sont-ils anti “intellectuels”? http://owni.fr/2011/06/25/les-geeks-sont-ils-anti-%e2%80%9cintellectuels%e2%80%9d/ http://owni.fr/2011/06/25/les-geeks-sont-ils-anti-%e2%80%9cintellectuels%e2%80%9d/#comments Sat, 25 Jun 2011 08:32:59 +0000 Roud http://owni.fr/?p=71719 livre en feu

C’est la question posée par Larry Sanger [en] (via Pablo).

Le constat de Sanger est le suivant :

  • La planète geek/Internet promeut l’intelligence collective, plus ou moins implicitement au détriment de l’expertise. Sanger cite notamment l’exemple de Wikipedia qui prévoyait à son origine un processus de revue par les experts, qui a vite disparu [en, pdf] sous l’impulsion notamment de Jimmy Wales.
  • On est passé insidieusement d’une critique du livre comme “contenant” peu moderne (i.e. en papier, etc.) à une critique du livre comme contenu. Sanger cite notamment des commentaires de geeks affirmant que personne ne lit plus les classiques comme Guerre et Paix [en], considérés comme trop longs et pas intéressants (bref pas assez “modernes”). En parallèle émerge l’idée qu’Internet modifie nos capacités cognitives (tendances à zapper d’un contenu à l’autre sans se focaliser – Is Google making us stupid ? [en]). Le point central derrière cette idée étant que, désormais, toute connaissance est relativement accessible sur le web et donc qu’il est inutile de s’encombrer le cerveau avec des connaissances “inutiles” qui prennent un temps infini à consolider.
  • Autre point moins entendu peut-être : l’idée que les méthodes éducatives en général, et les études universitaires en particulier, sont dépassées et doivent être remplacées par des cours éveillant et cultivant la créativité. Un bon exemple est cette vidéo de Ken Robinson, spécialiste de l’éducation, que je découvre (et que Sanger critique, [en])

Cliquer ici pour voir la vidéo.

Aux États-Unis, cela se traduit aussi par des idées comme quoi l’éducation supérieure serait une “bulle” [en], au sens d’être un produit sur-valorisé par rapport à sa valeur réelle. Et certains geeks d’affirmer que les études sont, au fond, inutiles [en].

Sanger s’inquiète que cet état d’esprit gagne en importance et s’étende à toute la société, filant tout droit à l’idiocracy. Je pense qu’il est déjà trop tard pour s’inquiéter :

  • L’expertise de toute sorte n’a jamais été autant contestée. Et évidemment, Internet a accéléré cette tendance en rendant accessible les connaissances comme dit plus haut. Le problème est que, mal maîtrisées, ces connaissances soit amènent à des contre-sens scientifiques, soit mettent en avant des experts largement crackpotesques ayant une capacité de diffusion surmultipliée et qui gagnent du terrain (là où autrefois ils auraient végété dans leur coin). Qu’on songe par exemple aux “débats” sur le réchauffement climatique ou l’évolution.
  • Le modèle d’université comme dispensatrice de savoirs et compétences académiques garantissant un emploi est dépassé depuis belle lurette. Robinson dans la vidéo ci-dessus critique effectivement l’université du XIXème siècle, or l’université du XXIème siècle est tout autre : bien plus focalisée justement sur les débouchés de l’emploi, le génie, le développement de techniques directement utilisables par l’industrie. Le savoir en tant que tel est dévalorisé, il doit être rentable. Concrètement, en période de crise, cela se traduit par la fermeture pure et simple de département d’humanités [en].

Il y a des biais “geeks” évidents dans cette façon de penser. C’est vrai, on peut fonder sa start-up Internet et réussir sans études longues. C’est vrai, les “compétences” développées par ces geeks sont plutôt utiles à la société. Mais il n’est pas dit que toute cette philosophie geek soit applicable aux autres domaines du savoir. Qu’on songe par exemple à la “Do-It-Yourself Biology”, la biologie du garage, des biohackers : à mon sens, il est impossible de faire quelque chose de vraiment raisonnable, innovant et sécuritaire sans un minimum de savoir et de savoir-faire universitaire. Il n’y a pas non plus de “do-it-yourself physics” : même des expériences relativement simples à faire demandent, pour être pertinentes , une réflexion en amont, une “profondeur” de pensée et une connaissance de la physique certaine (songez aux gouttes qui rebondissent d’un billet précédent). Enfin, il y a clairement un problème matériel de coût : un étudiant peut s’acheter un ordinateur et directement apprendre à programmer, alors qu’il faut une petite fortune pour s’acheter les équipements de base dans n’importe quelle science expérimentale.

Au fond, je me demande si cette façon de penser ne marque pas surtout la prédominance de plus en plus importante du génie (au sens ingénierie) sur la science elle-même. La science se retrouve en fait victime d’un double complexe de Frankenstein : d’une part, la créature (la technique) est constamment assimilée au créateur (la science), tout comme on fait souvent la confusion entre le monstre et le nom “Frankenstein”. Le grand public confond ainsi allègrement science et technique, le terme même de “geek” recouvre ces deux réalités différentes de l’académique et du technophile. D’autre part, la technique comme fin en soi tend donc à se substituer à la science, comme la créature se retourne contre son créateur. Les geeks Internet sont à la pointe de ce mouvement en considérant en somme que toute connaissance est réductible à un problème technique, et c’est là l’origine profonde de cet anti-intellectualisme. Souvenons-nous également de cette révélatrice anecdote canadienne. Plus que l’idiocracy, c’est la technocratie qui triomphe.

Billet initialement publié sur Matières Vivantes

Image CC Flickr Paternité pcorreia

]]>
http://owni.fr/2011/06/25/les-geeks-sont-ils-anti-%e2%80%9cintellectuels%e2%80%9d/feed/ 0
Les particules surfent sur la vague http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/ http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/#comments Wed, 01 Jun 2011 09:06:40 +0000 Roud http://owni.fr/?p=35016 La mécanique quantique est le domaine de la physique à la fois le plus mystérieux et le plus popularisé auprès du grand public. Lorsqu’elle a été inventée dans les années 20, ses propriétés mathématiques parraissaient si étranges que de nombreux débats philosophiques ont eu lieu pour comprendre l’implication de cette physique sur la notion de réalité même.

Ce qu’il y a d’étonnant dans la mécanique quantique est qu’elle donne une vision fondamentalement incertaine du monde. Les particules quantiques se comportent tantôt comme une onde, tantôt comme une particule, une observation ne donne pas un résultat déterminé, mais probabiliste.

A cela s’ajoutent des effets bizarres comme le principe d’incertitude d’Heisenberg, spécifiant qu’un observateur peut modifier la nature de l’expérience physique simplement en la regardant, ou encore le paradoxe du chat de Schrödinger … Vous avez probablement entendu parler de ces interprétations qui, quoique bien définies mathématiquement, donnent un parfum très ésotérique à la physique quantique et la rendent quelque peu inaccessible au commun des mortels. Faut-il inventer une nouvelle philosophie, une nouvelle vision du monde et de la réalité pour comprendre notre univers ? (Ou notre multivers ?)

D’un point de vue purement scientifique, une école de pensée, dite de Copenhague, a fini par s’imposer. C’est en réalité une certaine école du renoncement : fi de ces histoires de dualité onde-particule, il est inutile de se poser des questions sans fins. La formule symbole de cette interprétation est le fameux “shut-up and calculate” de Feynmann, i.e. :

Ne te pose pas de questions et calcule.

L’idée est que le monde quantique reste incommensurable, incompréhensible pour nos cerveaux primitifs d’homo sapiens, le monde est tout simplement différent à petite échelle, et la seule beauté mathématique de l’équation de Schrödinger peut nous permettre de comprendre ce qu’il s’y passe.

Ondes et particules

Einstein (parmi d’autres) n’accepta jamais cette interpétation. Il propose avec Podolsky et Rosen un argument en 1935, appelé “paradoxe EPR”, visant à réfuter l’interprétation de Copenhague, théorie dite “non-locale”. L’illustration la plus connue de cette non-localité est ce qu’on appelle l’intrication quantique : des particules quantiques semblent pouvoir interagir à très grande distance, comme si la réalité physique d’une particule défiait l’espace en s’étendant en plusieurs endroits simultanément. Einstein pensait que c’était impossible et que des théories locales à “variables cachées” pouvaient tout expliquer.

Dans les années 60, John Bell propose une formulation mathématique de ce paradoxe EPR, les “inégalités de Bell”, ouvrant la voie à des tests expérimentaux du paradoxe, réalisés in fine pour la première fois par Alain Aspect, qui montre effectivement que la mécanique quantique les viole (10.000 fois plus vite que la lumière). L’école de Copenhague triomphe : cette violation prouve qu’il n’y a pas de théories locales à variables cachées pouvant rendre compte de la mécanique quantique, et donc qu’il est inutile de tenter de dépasser la froideur mathématique de l’équation de Schrödinger, seule façon de décrire le monde à petite échelle. L’interprétation s’impose définitivement, est enseignée dans les universités, le débat semble clos (en tous cas pour les non-experts un peu éclairés dans mon genre).

Mais le diable est dans les détails : la violation des inégalités de Bell montre que la mécanique quantique est une théorie “non-locale”, comme le veut l’interprétation de Copenhague, mais elle ne montre pas pour autant que l’interprétation de Copenhague est valide (en particulier son aspect purement probabiliste). Or certains physiciens, et pas des moindres, ont continué à travailler sur des théories qui, contrairement à l’interprétation de Copenhague, ont le bon goût d’être déterministes et non probabilistes : De Broglie et Bohm ont ainsi développé une théorie dite de l’onde porteuse, ou onde guide. On peut résumer en quelques mots cette théorie de la réalité : un système quantique n’est ni une particule, ni une onde mais la conjugaison d’une particule littéralement “portée” par une onde, un peu comme un surfeur sur une vague. Lorsque l’on explore alors les propriétés de la matière, on est tantôt en interaction avec une particule, tantôt en interaction avec l’onde, d’où la fameuse dualité observée en mécanique quantique.

Cette théorie a également le bon goût d’être non-locale : l’onde porteuse s’étend à tout l’univers, et donc on peut interagir avec la particule “à distance” via une action sur sa propre onde porteuse. Elle n’est donc pas nécessairement en contradiction avec les expériences de violation des inégalités de Bell dont on parle ci-dessus. Le plus gros problème, qui hérisse le poil de nombreux physiciens, est cette non-localité, et cette théorie ne s’est pas imposée, trop ésotérique. Ironie de l’histoire, l’un des grands défenseurs de cette théorie n’est autre que John Bell lui-même, l’homme qui par ses travaux a indirectement tué le paradoxe EPR.

Transportons-nous maintenant au début des années 2000. Changeons de domaine : place à la physique de la matière dite “molle”, place à cet élément étrange et commun … l’eau.

Cliquer ici pour voir la vidéo.

(Pour les non-anglophones, une version sous-titrée de cette vidéo est disponible sur dot sub)

Grâce aux progrès dans l’acquisition des images, on peut filmer en temps réel ce qui se passe lorsqu’une goutte d’eau tombe sur une surface libre. On observe alors un phénomène tout à fait fascinant dû à la tension de surface (la même propriété physique à l’origine des effets de capilarité) : lorsqu’une goutte tombe sur une surface d’eau, elle va pouvoir “rebondir” plusieurs fois sur celle-ci. Au moment des rebonds, elle va en plus créer une petite onde autour d’elle. Au bout du compte, l’énergie se dissipe, la goutte se stabilise à la surface avant de fusionner avec celle-ci. Dans cette petite expérience très simple, notez qu’on a deux ingrédients intéressants : une “particule” (la goutte), et une onde (créée par la goutte qui tombe), l’onde étant bien sûr en interaction avec la particule via les lois de la mécanique des fluides. On n’est pas très loin de l’image de Bohm-De Broglie, le seul “problème” étant la dissipation d’énergie qui entraîne la stabilisation de la goutte et sa fusion avec la surface.

La solution paraît rétrospectivement simple : injecter de l’énergie dans le système

C’est l’idée qu’ont eu Yves Couder (de l’université Paris VII) et son équipe : en faisant “vibrer” la surface d’eau, on peut arriver à entretenir le rebond de la goutte, qui sautille ad vitam aeternam, générant une onde dans sur la surface de l’eau. Mieux, en ajustant un peu les paramètres, on peut arriver à ce que l’onde soit déphasée par rapport au rebond de la goutte, ce qui a pour conséquence de transformer la goutte rebondissante en goutte voyageuse, “marcheur” allant bien droit. L’onde générée par le rebond est ainsi transformée en “onde porteuse”, un peu comme dans la théorie de Bohm-De Broglie ! Encore mieux : si on commence à mettre plusieurs gouttes ensemble, non seulement celles-ci bougent, mais elles vont pouvoir interagir via l’onde se propageant à la surface de l’eau. Une vidéo vaut mieux qu’un long discours :

(Vidéo en Supplément de Dynamical phenomena:  Walking and orbiting droplets, Y. Couder, S. Protière, E. Fort & A. Boudaoud, Nature 437, 208(8 September 2005); on notera la différence de moyens entre les télés américaines et les labos français)

Les choses vraiment amusantes et dérangeantes peuvent alors commencer : étant donné ce système dual onde-particule, déterministe et macroscopique, sa physique ressemble-t-elle à la physique quantique ?

A ce jour, Couder et son équipe ont essayé plusieurs expériences, et de façon assez fascinante ont réussi à reproduire plusieurs effets quantiques. Toutes ces expériences reposent sur l’interaction du système goutte/onde avec l’équivalent macroscopique d’un mur, en l’occurrence ici une zone où on empêche la goutte de se propager par rebond (en modifiant la profondeur locale du bassin). Les effets suivants ont été observés : Couder et Fort ont reproduit avec leur système les figures de diffraction de la très fameuse expérience de fentes d’Young expliquée ci-dessous :

Cliquer ici pour voir la vidéo.

Feynman a dit un jour que cette expérience est un “phénomène impossible, absolument impossible, à expliquer de façon classique et qui est au fondement même de la mécanique quantique”. On peut donc affirmer aujourd’hui que Feynman avait tort sur le premier point. L’expérience de Couder explique le paradoxe quantique suivant : on peut envoyer une seule goutte qui passe par une seule fente tout en ayant des interférences sur l’écran.

Comment ? L’idée est que l’onde porteuse qui guide la goutte rebondissante par une fente va interférer avec son homologue passant par l’autre fente , du coup, elle va guider et localiser in fine la goutte sur une seule bande d’interférence constructive de l’onde. Ce qui est très impressionant est que cette expérience de Couder et Fort reproduit exactement, de façon tout à fait classique, l’expérience montrée par Dr Quantum ci-dessus : on envoie une à une des gouttes (comme Dr Quantum envoie des électrons) et la statistique des trajectoires individuelles des gouttes sur le long terme reproduit la figure de diffraction des ondes ! L’aspect probabiliste sur les trajectoires dans ce système classique vient quant à lui vraisemblablement d’une dynamique chaotique au moment où la goutte passe par la fente. Inutile d’invoquer un changement de nature de la goutte qui se dédouble en multivers quand elle passe les fentes !

Interférences dans les statistiques de position de la goutte dans l'expérience de Fort-Couder

Interférences dans l'expérience quantique des fentes d'Young

Une goutte peut “traverser” un mur par l’équivalent macroscopique d’un effet tunnel - cet effet de mécanique quantique qui fait qu’une particule peut jouer les passe-murailles :

Last but not least, modulo une jolie analogie entre champ magnétique et vecteur rotation, une quantification est observable dans ce système : des “marcheurs” placés dans une bassine tournante sur elle-même ne peuvent aller n’importe où et se localisent précisément à certaines distances du centre, tout comme les niveaux d’énergie d’une particule quantique sont eux-mêmes discrets.

Quantification des localisations de la goutte (panneau de droite)

La plupart des effets “quantiques” reposent donc sur une interaction très forte entre la goutte et l’onde qui la guide. Comme l’explique Yves Couder lui-même :

Ce système où une particule est guidée par une onde se distingue des modèles théoriques d’ondes pilotes par le fait que tous les points récemment visités par le marcheur restent des sources d’ondes. La structure du champ d’onde forme donc une “mémoire” du chemin antérieur parcouru par la goutte.

Cette notion de mémoire de chemin est l’effet crucial, non local, nouveau par rapport à la théorie de De Broglie-Bohm, qui explique tous les comportements quantiques. Du coup, on peut se demander si ces expériences ne constituent pas les prémisses d’une révolution conceptuelle dans la mécanique quantique, car loin de simplement reproduire les résultats bien connus du monde quantique, elles suggèrent des nouvelles pistes de réflexions, des concepts, voire des expériences permettant de mieux appréhender l’infiniment petit.

Peut-être que le monde quantique sera in fine différent de cette image simple, mais les leçons épistémologique de cette série d’expériences n’en sont pas moins vertigineuses. D’abord, elles rappellent l’importance cruciale de la réalité expérimentale, trop souvent oubliée par les théoriciens. La nature sera toujours plus intelligente que nous. Ensuite, elles mettent en exergue le danger potentiel de trop se focaliser sur le formalisme, certes puissant, certes efficace, mais qui peut amener à occulter en partie la réalité même.

Extrapolons : imaginons que ces expériences aient quoi que ce soit à voir avec le monde quantique, on peut alors dire adieu au principe d’incertitude d’Heisenberg par exemple. Que penser alors de nombreuses “philosophies” développées autour de ce principe ? Enfin, il est fascinant de voir que cette physique des gouttes rebondissantes est un phénomène complexe, multi-échelle, avec mémoire, un phénomène typiquement émergent en somme. Se pourrait-il que la physique quantique, théorie phare du XXième siècle, échoue en définitive à donner une vision simple de la réalité par excès de réductionnisme ?

Post-Scriptum :
tout cela pose également des questions sur l’enseignement de la physique. J’avais déjà déploré dans un billet précédent l’accent mis sur la physique quantique au détriment de la physique classique des systèmes complexes, cette série d’expériences montre bien l’absurdité de la chose (et oui, moi je veux la peau de Sheldon Cooper).

Bêtisier : en rédigeant ce billet, je suis tombé sur un communiqué du CNRS de 2005 parlant de ces expériences. Pour le CNRS, donc :

Ce genre d’étude est relié aux applications industrielles qui font intervenir des gouttes, par exemple les imprimantes à jet d’encre.

On parle ici de révolution scientifique potentielle, de changement profond de notre connaissance du monde, et le CNRS parle imprimante à jet d’encre. C’est digne du petit jeu auquel on jouait dans ce billet et en commentaires.

Références

Couder Y, Protière S, Fort E, Boudaoud A (2005) Dynamical phenomena: Walking and orbiting droplets. Nature 437:208.

Couder Y, Fort E (2006) Single-particle diffraction and interference at a macroscopic scale. Phys Rev Lett 97:154101-1–154101-4.

Eddi A, Fort E, Moisy F, Couder Y (2009) Unpredictable tunneling of a classical wave-particle association. Phys Rev Lett 102:240401-1–240401-4.

Bush JW (2010) Quantum mechanics writ large Proc. Natl. Acad. Sci. USA 2010 107 (41) 17455-17456


Article initialement publié sur Matières Vivantes sous le nom “La nature de la réalité”.

Photos Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par zedamnabil

]]>
http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/feed/ 33
Faire publier un papier… scientifique http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/ http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/#comments Wed, 20 Apr 2011 08:20:40 +0000 Roud http://owni.fr/?p=34613 Il y a beaucoup de choses que l’on apprend sur la longueur dans la recherche, avec l’expérience. Mais ce que je trouve tout à fait étonnant, particulièrement dans le paysage français, est qu’on n’apprend pas ou peu les petits trucs pour faire publier un papier. Oh bien sûr, le contenu scientifique reste l’essentiel, mais, même s’il est très codifié et très formel, le processus de revue par les pairs n’a rien d’un processus pur et éthéré, il y a une forte composante humaine qui compte. Oublier cela peut mener un papier à sa perte. Je n’ai pas la prétention de faire la leçon à qui que ce soit, mais voici quelques éléments (largement de bon sens) glanés sur ma propre expérience, en tant que publiant et referee (ndlr: chercheur contacté par une revue scientifique pour lire et commenter les articles proches de son champ de recherche avant la publication), ainsi que sur la base d’observations de mes chefs et collègues très très éminents. Encore une fois, n’hésitez pas à ajouter vos propres conseils ! (et à me dire si vous êtes d’accord ou pas)

Faites relire par vos amis

Le processus de revue par les pairs dans le cadre du journal n’est que la fin de l’histoire, pas le début. Avant de soumettre un papier, il est très important de lui faire subir un cycle de revue informelle par des collègues compétents et des amis. Le genre d’amis qui peuvent vous dire librement si votre papier est bullshit ou si au contraire c’est le papier du siècle. Cela vous aidera à retravailler le papier pour expliquer les points imprécis, et à bien calibrer la revue où le publier.

Networkez

De la même façon, il est très important de bien se familiariser avec le réseau plus étendu de collègues à même de lire votre papier. Allez en conf, donnez des séminaires, échangez . Ces collègues sont autant de referees potentiels, on a toujours plus de scrupules à détruire les papiers d’un collègue qu’on trouve sympathique , et parfois les communautés sont si petites qu’on en a vite fait le tour.

Choisissez bien l’éditeur scientifique

Un éditeur a littéralement un pouvoir de vie ou de mort sur un papier. Il peut même parfois passer outre l’avis des referees s’il pense que votre papier a été injustement critiqué. Là encore, tout le côté humain et informel en amont pour connaître les éditeurs est important. J’ai vu des big shots passer carrément des coups de fil à des éditeurs qu’ils connaissaient depuis de nombreuses années pour faire passer des papiers.

Le referee a toujours raison…

Si un referee donne un conseil, faites le maximum pour satisfaire ses envies. D’une part, il se sentira valorisé d’être écouté, d’autre part, cela fera un point de moins critiqué. La dernière chose que vous voulez faire, c’est énerver un referee. J’ai vu des auteurs se tirer littéralement des balles dans le pied et condamner des papiers largement publiables en prenant les referees (en l’occurrence moi) pour des imbéciles. Par exemple, si un referee vous demande de mieux expliquer tel ou tel point, réécrivez toute la partie correspondante, travaillez dessus, montrez de la bonne volonté. Trop souvent, les auteurs se contentent de quelques modifs cosmétiques, histoire de noyer le poisson.

… sauf quand il a tort

Parfois, on n’a pas le choix, il faut se payer un referee pour faire passer un papier. Si un referee est vraiment trop mauvais, vous devez convaincre l’éditeur qu’il ne doit pas tenir compte de son avis. C’est un fusil à un coup. Si ça marche, c’est bingo, si ça ne marche pas, vous pouvez dire adieu à la publication dans ce journal. Ceci doit être fait sur des critères purement scientifiques, ce n’est possible que si le referee a fait la preuve dans sa revue qu’il ne comprenait rien à l’histoire. Ça m’est arrivé une fois dans un papier : un referee a rejeté mon modèle au motif qu’il était linéaire, alors qu’il était tout à fait non linéaire. Le papier, rejeté dès le premier round, a été finalement resoumis et accepté.

Changez de revue

Tout le monde ne sera pas nécessairement d’accord avec ça, mais un point qui me frappe chez certains est leur insistance à vouloir faire passer un papier donné dans une revue donnée. Je peux un peu comprendre quand il s’agit d’une revue majeure (comme Nature ou Science), moins quand il s’agit d’une revue moins prestigieuse. Le processus de revue par les pairs est long et douloureux, et, dans votre carrière vous serez jugés en partie sur votre nombre de papiers (en ce sens, l’intérêt du big shot établi qui veut son Science pourra parfois s’opposer à celui de l’étudiant qui doit publier pour partir au plus vite). Vous ne pouvez pas vous permettre de passer un an à espérer la publication d’un papier dans une revue donnée, avec le risque de vous faire jeter après une longue lutte avec les referees, vous avez votre recherche à faire à côté. Il y a suffisamment de revues pour publier votre recherche, et si elle est de qualité, ça finira bien par passer dans une revue pas trop mauvaise. Bref, si ça sent le roussi et devient trop compliqué, passez à la revue suivante, ou ciblez des stratégies alternatives – type Plos One- et comptez sur le processus de post-peer-review pour valoriser ce papier

Utilisez vos chefs

Particulièrement quand vous êtes étudiant ou post-doc, tout ce processus de réseautage et d’influence ne vous sera pas familier. Ce sera à votre chef de faire ce travail, observez, apprenez, et exploitez-le. C’est une partie importante de son travail, rappelez-lui gentiment.

Utilisez le post-peer-review

La publication n’est pas la fin de l’histoire, faites de la pub pour votre recherche, parlez-en en séminaire, mettez vos publis en valeur, si quelqu’un fait des recherches similaires, vous pouvez même vous permettre de lui envoyer votre papier. Ce processus aidera la publication du prochain !

>> Article initialement publié sur Matières Vivantes.

>> Photos Flickr CC PaternitéPartage selon les Conditions Initiales par Sam Hames et CC-NC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par widdowquinn.

]]>
http://owni.fr/2011/04/20/faire-publier-un-papier-scientifique/feed/ 50
Le retour en grâce d’Alan Turing http://owni.fr/2011/02/04/le-retour-en-grace-dalan-turing/ http://owni.fr/2011/02/04/le-retour-en-grace-dalan-turing/#comments Fri, 04 Feb 2011 13:58:56 +0000 Roud http://owni.fr/?p=34034 Alan Turing, né en 1912 et mort en 1954, est un modèle scientifique pour de nombreuses personnes. Mathématicien spécialiste de cryptographie, il est précurseur si ce n’est l’inventeur d’au moins deux domaines scientifiques très actifs aujourd’hui qui m’intéressent au plus haut point : l’informatique et la biologie intégrative. De plus, nombre de ses travaux avaient des motivations autant philosophiques que scientifiques, ce qui explique peut-être le souffle qui les anime.

Turing l’informaticien

Ses contributions majeures sont dans le domaine de l’informatique. Turing est l’inventeur de l’ordinateur en tant qu’objet d’étude théorique. Il a ainsi littéralement défini le concept d’algorithme (et un concept qui va avec, la calculabilité). Dans le papier fondateur des sciences informatiques, il définit ce qu’on appelle aujourd’hui une machine de Turing. La machine de Turing est un dispositif théorique très simple, basé sur une machine lisant un ruban imprimé et, en fonction de ce qu’elle lit sur le ruban, pouvant avancer, reculer sur le ruban, écrire sur celui-ci ou effacer de l’information. On peut démontrer que tout ordinateur est en fait assimilable à une machine de Turing !

Ce qu’on sait moins, c’est que Turing a inventé sa machine (et donc l’ordinateur) pour répondre à un problème mathématique précis, posé par Hilbert dans sa fameuse liste. En fait, ses travaux font suite à ceux de Godel sur l’indécidabilité en mathématique. Turing pensait que le problème 10 de Hilbert était indécidable ; pour étudier ce genre de problème, son idée était en quelque sorte de “mécaniser”, d’automatiser les mathématiques, ce qui l’a amené à inventer la machine de Turing et la notion d’algorithme. Un des problèmes fameux qu’il a résolu avec sa démarche est le problème de l’arrêt. En terme “geek”, le problème de l’arrêt se formule en termes suivants : est-il possible de construire un algorithme capable de prédire si un programme informatique va imprimer les mots “hello world” ? Turing a posé le problème et montré qu’une telle machine, qu’un tel algorithme n’existait pas, et donc que le problème de l’arrêt est indécidable (la démonstration est assez facile à comprendre, je m’étais même fendu d’un petit billet à ce sujet à une époque lointaine …).

Les autres contributions d’Alan Turing

Turing était en fait fasciné par les machines, l’automatique, et se posait beaucoup de questions philosophiques sur la nature de la conscience et de l’intelligence. L’une de ses contributions majeures au domaine de l’intelligence artificielle est ce qu’on appelle le test de Turing : il s’agit, en gros, d’un test permettant de mesurer l’intelligence d’une machine à l’aune de l’intelligence humaine. Les fameuses CAPTCHA de nos blogs sont une forme de test de Turing. Ce cheminement des maths vers l’algorithmique en passant par la philosophie et l’intelligence artificielle ont amené Turing a s’intéresser à la formation de structures en biologie. Là aussi, il a cherché à savoir comment de la complexité pouvait émerger de processus purement mécaniques : il a ainsi proposé les premiers modèles mathématiques de réaction-diffusion, pour expliquer comment des motifs (de Turing) peuvent se former spontanément en biologie.

La plupart des travaux de Turing sont largement d’actualité dans toutes ces disciplines. La machine de Turing est le prototype théorique de l’ordinateur, l’intelligence artificielle est un domaine de recherche prometteur, et je suis très bien placé pour vous dire qu’on n’a pas fini d’entendre parler de Turing et de ses successeurs dans le domaine de la biologie théorique.

Turing, l’homme

Sur le plan plus personnel, la vie de Turing fut probablement assez triste et se termina très mal. Homosexuel, il perdit son premier amour foudroyé par la maladie (ce qui rendit Turing athée, comme Darwin), puis fut poursuivi et condamné dans un pays où les préférences sexuelles différentes étaient illégales. Du fait de sa condamnation, on lui interdit de poursuivre ses recherches sur la cryptographie. Désespéré, Turing se suicida en 1954 en mangeant une pomme empoisonnée, comme dans Blanche-Neige, son conte de fée préféré. [NB : L'histoire dit que cette pomme croquée inspira le logo de la marque Apple. En 2009, Gordon Brown a présenté les excuses du gouvernement britannique pour sa condamnation abominable.]

Turing fait donc partie de ces chercheurs géniaux et multicartes, ayant laissé leur empreinte et leur nom sur plusieurs domaines scientifiques différents (faisant mentir le zeroième théorème ?). Ses préoccupations scientifiques, ses interrogations philosophiques, l’ont amené à fonder des domaines en pleine expansion aujourd’hui. A ce titre, il aurait mérité le Nobel, mais ne l’aurait probablement jamais eu vu ses intérêts scientifiques plutôt dans le XXIe siècle que dans celui de l’ami Alfred.

Cliquer ici pour voir la vidéo.

>> Article initialement publié sur “Matières vivantes”

>> Illustration et vidéo Flickr CC : Leo Reynolds et Andrew Magill

>> Extrait du documentaire “The Genius of Alan Turing” en cours de tournage

]]>
http://owni.fr/2011/02/04/le-retour-en-grace-dalan-turing/feed/ 6
Wikileaks et biologie, utilisation similaire des données? http://owni.fr/2010/12/05/wikileaks-et-biologie-utilisation-similaire-des-donnees/ http://owni.fr/2010/12/05/wikileaks-et-biologie-utilisation-similaire-des-donnees/#comments Sun, 05 Dec 2010 13:40:57 +0000 Roud http://owni.fr/?p=33572 Titre original : Opinion : Wikileaks, biologie des données, émergence

Le journalisme de données et la saga Wikileaks sont la transposition dans la société d’un phénomène récent en biologie : le déluge de données. Quels enseignements tirer de ce parallèle ?

Low-input, high-throughput, no-output biology

Ainsi Sydney Brenner qualifiait-il dans une conférence récente le phénomène de “biologie des données” : en somme, la génération de données brutes ne serait qu’une démarche un peu paresseuse (“low-input’”), coûteuse et n’apprenant au fond pas grand chose de neuf sur la biologie (“no output”). Brenner combat en réalité cette idée que la “science” peut émerger spontanément des données, par une analyse non biaisée et systématique, qu’au fond les données vont générer les théories scientifiques naturellement (et c’est aussi un peu le principe d’algorithmes d’analyse comme Eureka).

Emergence de la connaissance

La démarche de Wikileaks me semble relever de la même tendance : des données brutes et nombreuses, disponibles à tous, va surgir une vérité, obscure dans les détails mais éclatante vue de loin. More is different pour reprendre le titre du papier célèbre du Prix Nobel de physique Phil Anderson. Wikileaks, c’est l’émergence appliquée au journalisme, l’idée qu’un déluge quantitatif va changer la vision qualitative des faits.

Est-ce vrai ? La comparaison avec la biologie de données est éclairante à mon sens. Au-delà des critiques juridiques, sur ce que j’ai entendu, on entend que la majeure partie des mémos de Wikileaks sont sans aucun intérêt, que cette publication met l’accent sur des épiphénomènes ou que les télégrammes qui semblent un peu “croustillants” ne nous apprennent en fait rien de vraiment nouveau ou rien dont on ne se serait douté. Allez dans une conférence de biologie, et discutez avec des critiques de la biologie des données, vous entendrez exactement le même genre de critiques, à savoir que l’analyse est trop simple, biaisée, et qu’on ne trouve rien de vraiment étonnant ou neuf. Bref, dans les deux cas, ce saut qualitatif à la Anderson ne se produirait pas, les données sont jolies mais totalement inutiles au fond.


Le retour de l’expert

Il y a néanmoins une différence de taille : si je vous donne la séquence d’ADN d’un gène, vous n’êtes pas capable de dire ce que ce gène fait dans la cellule, c’est une information intéressante mais dont on ne saisit pas la portée exacte (aujourd’hui en tous cas), tandis que si je vous dis que “Sarkozy est autoritaire et colérique”, d’une part, c’est une information considérée comme signifiante par l’analyste, donc son contenu informatif est maximisé dès la collecte de celle-ci , d’autre part, vous êtes capable de replacer cette donnée immédiatement dans un contexte plus global, repensant au “Casse-toi pauvre con”, à la brouille avec la commission européenne sur les Roms, et plus généralement à sa pratique politique globale.

En d’autres termes, dans le journalisme de données, nous pouvons bien comprendre les sens individuels des atomes de données, mais nous avons déjà une idée de l’image globale, du niveau supérieur émergent, et du coup, nous sommes tout à fait à même de comprendre comment des petits détails deviennent signifiants sur la vision et l’organisation du monde. Dans ce cadre, on a besoin de nouveaux experts, des personnes ayant une bonne maîtrise de ces petits détails, capables de mettre ensemble ce qui est signifiant a priori pour bien nous aider à visualiser cette réalité (cf. cette tribune du Monde signalée par Enro sur twitter).

Où sont ces experts dans la biologie des données ? Ils sont capables de comprendre les petits faits individuels apparemment anodins, de les mettre ensemble dans un cadre plus global, de les faire comprendre à tous par une représentation adéquate. Lisez ou relisez L’origine des Espèces, et vous verrez que c’est exactement la démarche suivie par Darwin. Pense-t-on vraiment que des robots soient capables de faire cela ? Ou n’est-ce pas plutôt le boulot des théoriciens, espèce qui demeure rare en biologie ?

>> Article initialement publié sur Matières Vivantes

>> Illustrations FlickR CC : Garrettc, Elliot Lepers pour OWNI

]]>
http://owni.fr/2010/12/05/wikileaks-et-biologie-utilisation-similaire-des-donnees/feed/ 3
Cellules souches embryonnaires reloaded http://owni.fr/2010/11/24/cellules-souches-embryonnaires-reloaded/ http://owni.fr/2010/11/24/cellules-souches-embryonnaires-reloaded/#comments Wed, 24 Nov 2010 15:34:40 +0000 Roud http://owni.fr/?p=33464

Août 2010 : le juge fédéral Royce Lamberth rend une décision terrible pour la recherche sur les cellules souches humaines aux États -Unis. Suite à une plainte de deux chercheurs travaillant sur les cellules souches “adultes” (et soutenus par des associations familiales d’inspiration conservatrice), le juge prend la décision de suspendre tous les travaux sur les cellules souches financés par des fonds fédéraux. Une décision qui met en péril tout ce domaine de recherche aux États-Unis et représente sans aucun doute un point de basculement pour un pays dont la législation a en permanence jonglé entre impératifs moraux et de recherche ces 15 dernières années.

La législation américaine sur le sujet dérive en effet de l’amendement Dickey-Wicker voté en 1996. Cet amendement à forte inspiration conservatrice stipule, pour faire simple, qu’aucun fond fédéral ne peut être utilisé pour financer la recherche impliquant la destruction d’embryons humains. Comme l’extraction de cellules souches embryonnaires ne peut se faire sans destruction d’embryons, cette loi interdisait donc de facto aux scientifiques la recherche sur les cellules souches embryonnaires humaines.

L’astuce de Clinton, l’interdiction de Bush

Pour contourner cet amendement, l’administration Clinton (au pouvoir à l’époque)  met en place une distinction subtile en 1999. L’idée est la suivante : certes on ne peut détruire des embryons sur fonds fédéraux, mais on peut demander à ce que la destruction nécessaire à l’extraction des cellules souches soit faite sur fonds privés, tout en autorisant la recherche sur fonds publics pour les cellules souches ainsi dérivées. Ainsi la recherche sur le sujet peut-elle décoller  !

Bush junior est alors élu fin 2000. Le 9 août 2001, il prononce un discours (disséqué par mes soins dans ce billet) annonçant un encadrement ferme de la recherche sur les cellules souches. W  revient sur la distinction faite par Clinton  : il interdit purement et simplement l’utilisation de fonds publics pour la recherche sur les cellules souches impliquant la destruction de nouveaux embryons.  Bush autorise néanmoins les recherches financées par l’état fédéral pour un type de cellules souches embryonnaires humaines : celles dérivées avant la décision du 9 Août 2001, dans la mesure où l’embryon a de facto déjà été détruit.

Pendant 8 ans, les chercheurs doivent gérer cette situation tant bien que mal. Certains décident de tenir deux labos en parallèle : l’un financé sur des fonds fédéraux, utilisant les lignées dérivées avant le 9 Août 2001 autorisées par Bush, l’autre financé par des fonds privés, autorisé par conséquent à dériver des nouvelles lignées et à faire de recherche dessus.  On le devine, la situation n’était pas simple. Notons toutefois que certains États (comme le Massachussets) décident de contourner la loi Bush en offrant des financements sur leurs fonds propres.

Les incertitudes de l’ère Obama

Fin 2008, Obama est élu. Début mars 2009, Obama signe un “executive order” levant l’interdiction formulée par Georges Bush, et revenant essentiellement à l’ère Clinton. Champagne dans les labos, qui peuvent de nouveau se servir de fonds fédéraux sur la seule base de la science et sans avoir à faire de la traçabilité fine de tout le financement. Cependant,  l’executive order d’Obama ne revenait pas sur l’amendement Dickey-Wicker.

Ce qui permet au juge Lamberth de balayer donc début août de cette année cette fine distinction entre destruction d’embryons (interdite sur les fonds publics) et utilisation de cellules souches issue de cette destruction (autorisée de nouveau par Obama).

If one step or ‘piece of research’ of an E.S.C. research project results in the destruction of an embryo, the entire project is precluded from receiving federal funding,

Si un projet de recherche sur les cellules souches nécessite la destruction d’un embryon, le projet entier ne doit pas recevoir de financement fédéral

Pire : de facto, la décision Lamberth interdit même la recherche sur les cellules souches autorisées par Bush. Le domaine se trouve soudainement complètement bloqué : le NIH (National Institute of Health, principal organisme de financement)  suspend les demandes de financement du domaine, suspend les futurs paiements planifiés, etc. L’inquiétude gagne les labos travaillant sur ce sujet exigeant et coûteux qui risquent de mettre la clé sous la porte. Finalement, le 9 septembre, un appel suspend provisoirement la décision du juge Lamberth, avant que la Cour d’Appel du District de Columbia ne conteste la validité des conclusions du juge Lamberth (sans toutefois les réfuter). La recherche peut continuer pour l’instant, mais en l’absence d’une nouvelle législation, rien n’est sûr pour demain,  nombreux sont les chercheurs du domaine dans les limbes

Billet initialement publié sur Matières premières

Image CC Flickr afagen

]]>
http://owni.fr/2010/11/24/cellules-souches-embryonnaires-reloaded/feed/ 4
Cellules souches embryonnaires aux USA: ||je t’aime, moi non plus http://owni.fr/2010/11/19/cellules-souches-embryonnaires-aux-eu-je-taime-moi-non-plus/ http://owni.fr/2010/11/19/cellules-souches-embryonnaires-aux-eu-je-taime-moi-non-plus/#comments Fri, 19 Nov 2010 15:45:18 +0000 Roud http://owni.fr/?p=35982

Août 2010 : le juge fédéral Royce Lamberth rend une décision terrible pour la recherche sur les cellules souches humaines aux États -Unis. Suite à une plainte de deux chercheurs travaillant sur les cellules souches “adultes” (et soutenus par des associations familiales d’inspiration conservatrice), le juge prend la décision de suspendre tous les travaux sur les cellules souches financés par des fonds fédéraux. Une décision qui met en péril tout ce domaine de recherche aux États-Unis et représente sans aucun doute un point de basculement pour un pays dont la législation a en permanence jonglé entre impératifs moraux et de recherche ces 15 dernières années.

La législation américaine sur le sujet dérive en effet de l’amendement Dickey-Wicker voté en 1996. Cet amendement à forte inspiration conservatrice stipule, pour faire simple, qu’aucun fond fédéral ne peut être utilisé pour financer la recherche impliquant la destruction d’embryons humains. Comme l’extraction de cellules souches embryonnaires ne peut se faire sans destruction d’embryons, cette loi interdisait donc de facto aux scientifiques la recherche sur les cellules souches embryonnaires humaines.

L’astuce de Clinton, l’interdiction de Bush

Pour contourner cet amendement, l’administration Clinton (au pouvoir à l’époque)  met en place une distinction subtile en 1999. L’idée est la suivante : certes on ne peut détruire des embryons sur fonds fédéraux, mais on peut demander à ce que la destruction nécessaire à l’extraction des cellules souches soit faite sur fonds privés, tout en autorisant la recherche sur fonds publics pour les cellules souches ainsi dérivées. Ainsi la recherche sur le sujet peut-elle décoller  !

Bush junior est alors élu fin 2000. Le 9 août 2001, il prononce un discours (disséqué par mes soins dans ce billet) annonçant un encadrement ferme de la recherche sur les cellules souches. W  revient sur la distinction faite par Clinton  : il interdit purement et simplement l’utilisation de fonds publics pour la recherche sur les cellules souches impliquant la destruction de nouveaux embryons.  Bush autorise néanmoins les recherches financées par l’état fédéral pour un type de cellules souches embryonnaires humaines : celles dérivées avant la décision du 9 Août 2001, dans la mesure où l’embryon a de facto déjà été détruit.

Pendant 8 ans, les chercheurs doivent gérer cette situation tant bien que mal. Certains décident de tenir deux labos en parallèle : l’un financé sur des fonds fédéraux, utilisant les lignées dérivées avant le 9 Août 2001 autorisées par Bush, l’autre financé par des fonds privés, autorisé par conséquent à dériver des nouvelles lignées et à faire de recherche dessus.  On le devine, la situation n’était pas simple. Notons toutefois que certains États (comme le Massachussets) décident de contourner la loi Bush en offrant des financements sur leurs fonds propres.

Les incertitudes de l’ère Obama

Fin 2008, Obama est élu. Début mars 2009, Obama signe un “executive order” levant l’interdiction formulée par Georges Bush, et revenant essentiellement à l’ère Clinton. Champagne dans les labos, qui peuvent de nouveau se servir de fonds fédéraux sur la seule base de la science et sans avoir à faire de la traçabilité fine de tout le financement. Cependant,  l’executive order d’Obama ne revenait pas sur l’amendement Dickey-Wicker.

Ce qui permet au juge Lamberth de balayer donc début août de cette année cette fine distinction entre destruction d’embryons (interdite sur les fonds publics) et utilisation de cellules souches issue de cette destruction (autorisée de nouveau par Obama).

If one step or ‘piece of research’ of an E.S.C. research project results in the destruction of an embryo, the entire project is precluded from receiving federal funding,

Si un projet de recherche sur les cellules souches nécessite la destruction d’un embryon, le projet entier ne doit pas recevoir de financement fédéral

Pire : de facto, la décision Lamberth interdit même la recherche sur les cellules souches autorisées par Bush. Le domaine se trouve soudainement complètement bloqué : le NIH (National Institute of Health, principal organisme de financement)  suspend les demandes de financement du domaine, suspend les futurs paiements planifiés, etc. L’inquiétude gagne les labos travaillant sur ce sujet exigeant et coûteux qui risquent de mettre la clé sous la porte. Finalement, le 9 septembre, un appel suspend provisoirement la décision du juge Lamberth, avant que la Cour d’Appel du District de Columbia ne conteste la validité des conclusions du juge Lamberth (sans toutefois les réfuter). La recherche peut continuer pour l’instant, mais en l’absence d’une nouvelle législation, rien n’est sûr pour demain,  nombreux sont les chercheurs du domaine dans les limbes

Billet initialement publié sur Matières premières

Image CC Flickr afagen

]]>
http://owni.fr/2010/11/19/cellules-souches-embryonnaires-aux-eu-je-taime-moi-non-plus/feed/ 2
Les chercheurs doivent-ils boycotter Elsevier? http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/ http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/#comments Tue, 09 Nov 2010 12:30:15 +0000 Roud http://owni.fr/?p=35056 Titre original : Faut-il boycotter Elsevier ?

On a déjà longuement discuté des problèmes liés aux revues scientifiques et des possibilités offertes par l’accès libre. Mais certaines pratiques  récentes du grand éditeur Elsevier posent vraiment la question aujourd’hui d’un boycott pur et simple.

Elsevier est un acteur quasi-incontournable de l’édition scientifique, publiant 250 000 articles par an dans plus de 2000 journaux (si j’en crois Wikipedia). Poids lourd de l’édition scientifique, sa responsabilité est grande, tant à l’égard de la Science – Elsevier édite par exemple les Compte Rendus de l’Académie des Sciences de notre beau pays- que des scientifiques qui, rappelons-le, travaillent  quasiment gratuitement pour les éditeurs scientifiques du fait du système de revue par les pairs.

Des pratiques douteuses

Cependant, force est de constater que l’attitude d’Elsevier pose des problèmes de façon récurrente. Pour ne citer que trois affaires parmi les plus récentes :

Une stratégie de packages inacceptable

On le voit, Elsevier est donc régulièrement pris les mains dans le pot à confitures. Mais c’est paradoxalement des pratiques tout ce qu’il y a de plus légales et d’éthiques qui posent problème aujourd’hui  à mon sens. Car des événements récents prouvent aujourd’hui qu’Elsevier considère les chercheurs, qui sont à la fois ses clients, ses serviteurs et ses vaches à lait, pour des imbéciles.

Elsevier se livre d’abord de plus en plus à des pratiques plus proches du vendeur de chaînes câblées que de l’éditeur scientifique. Un exemple parmi d’autres : Elsevier vend des “packages” d’abonnements de revues aux universités et se livre actuellement à un saucissonnage tout à fait inacceptable :  il sépare actuellement les revues récentes et trendy du package basique, pour  les inclure dans d’autres packages incluant d’autres revues plus que mineures.

Du coup, l’université voulant se mettre à la page devra acheter quasiment tous les packages pour avoir accès à la totalité des bonnes revues. Et, en période de vaches maigres, certaines universités refusent désormais purement et simplement; sans être dans le secret des Dieux, j’imagine que quelque chose de similaire s’est passé récemment dans le cas de Paris VI qui a résilié il y a quelques jours son contrat avec Elsevier.

Une position  cynique sur le financement de la recherche publique

L’autre événement qui a de quoi faire sortir le scientifique lambda de ses gonds, c’est une tribune dans le Telegraph.  Oh, rien d’inhabituel en ces temps de propagande obsédés par la dette publique, un discours classique de coupe dans les dépenses, soutenant le plan d’une terreur British appelée George Osborne. Sauf que le plan en question prévoit des coupes drastiques dans le secteur éducatif, et spécifiquement universitaire : - 40 % de dépenses dans ce domaine ! Et cette tribune d’entrepreneurs, soutenant ces coupes, est signée …  par Anthony Habgood, le Chairman de Reed Elsevier. Peut-on faire plus imbécile et plus cynique qu’un “entrepreneur” dont le business model repose sur l’expertise et le  travail bénévole de personnes dont l’activité est financée en grande partie sur des fonds publics et qui soutient en parallèle une coupe drastique de ces mêmes dépenses publiques ?

Elsevier, du fait de son poids énorme, se comporte en monopole, se permet de donner des leçons de rigueur à l’État britannique d’un côté tout en pressurisant le secteur universitaire de l’autre. Il se trouve que nous, chercheurs, avons aussi le pouvoir de donner une leçon d’économie à Elsevier. Tout quasi-monopole non naturel étant néfaste pour l’économie, nous rendrions probablement service à la société en général en refusant désormais de travailler avec Elsevier, en refusant de référer les papiers soumis à une revue du groupe Elsevier, en refusant d’y envoyer nos papiers, ce qui in fine, devrait forcer Elsevier à mettre la clé sous la porte (d’une façon ou d’une autre).

En ce qui me concerne, je suis assez choqué par tout cela et désormais, je ferai mon possible pour m’abstenir de référer des papiers pour Elsevier, et je n’y enverrai plus mes papiers. Je privilégierai en priorité les journaux en accès libre et les journaux de sociétés savantes (comme Science ou Physical Review).

>> Photo FlickR CC : Campaign Against Arms Trade, martineno

>> Article initialement publié sur Matières vivantes

Retrouvez tous les articles d’OWNIsciences

]]>
http://owni.fr/2010/11/09/les-chercheurs-doivent-ils-boycotter-elsevier/feed/ 6