OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Une histoire interactive de la science du climat http://owni.fr/2011/06/28/une-histoire-interactive-de-la-science-du-climat/ http://owni.fr/2011/06/28/une-histoire-interactive-de-la-science-du-climat/#comments Tue, 28 Jun 2011 13:30:41 +0000 Martin Clavey http://owni.fr/?p=70996 Quand on parle du réchauffement climatique et de l’impact de l’homme sur celui-ci, les discussions s’enveniment rapidement et certains se retrouvent souvent atteints par le syndrome de Galilée. Faisant appel au crowdsourcing, le site Skeptical Science, qui revendique le scepticisme face aux sceptiques du réchauffement climatique, a produit une web-app très fournie présentant les différentes publications scientifiques sur le sujet dans une timeline interactive. Elles ont été classées en trois catégories :

  • Sceptiques (Skeptical papers)
  • Neutres (neutral papers)
  • Pro-réchauffement climatique lié à l’homme (pro-agw ou pro anthropogenic global warming papers)

Cette classification, un peu compliquée, est basée sur la liste des “mythes” sur le climat qu’a établie le site dans laquelle on retrouve des assertions telles que “L’acidification des océans n’est pas une thèse sérieuse“, “le réchauffement est dû aux rayons cosmiques” ou encore “c’est un cycle naturel“. Quand un article scientifique est ajouté dans la base de données, il est associé à l’un de ces “mythes”. Si il confirme le “mythe”, l’article est classé dans les papiers sceptiques sur les conséquences des activités de l’homme sur le réchauffement de la planète. Attention, ça ne veut pas dire que l’article réfute en bloc les effets de l’homme sur le réchauffement, mais qu’il contredit un des points de la thèse anthropique du réchauffement de la Terre. De même si l’article est classé dans les “pro-agw”, c’est qu’il confirme un des arguments tendant à prouver que l’homme est pour quelque chose dans le réchauffement de notre planète. Les papiers neutres sont soit des papiers liés à plusieurs “mythes” dont les résultats s’annulent, soit des papiers qui ne sont liés à aucun “mythe”.

Les internautes qui ont participé à cette web-app via un formulaire (il faut d’abord s’enregistrer sur le site) ou via l’add-on Firefox, ont déjà recensé 4 884 articles scientifiques.

De la correspondance de notre cher Baron Fourier (découvreur de l’effet de serre) avec le professeur Sullivan publiée dans l’American Journal of Science en 1824 aux 934 papiers qui sont déjà parus cette année, chaque bulle représente le nombre d’articles produit par année dans chacune des catégories.

(Cliquez ici pour accéder à l’application)

En jouant avec la scroll bar, on navigue dans la recherche sur le climat et on peut, par exemple, constater que :

  • globalement, le nombre de papiers sceptiques est très faible
  • le nombre de publication sur le climat a explosé depuis les années 2000.

Même si les critères de catégorisation des papiers sont perfectibles, cette web-app permet d’avoir une bibliographie assez globale et originale sur le climat. Cette application montre, en tout cas, que même quand on parle de science à un niveau élevé, le crowdsourcing peut être très efficace. N’hésitez pas à continuer à enrichir l’application !


Web-app découverte grâce à Knowtex

Photo FlickR CC PaternitéPas d'utilisation commerciale par doug88888

]]>
http://owni.fr/2011/06/28/une-histoire-interactive-de-la-science-du-climat/feed/ 10
Le vent (solaire) se lève http://owni.fr/2011/06/22/le-vent-solaire-se-leve/ http://owni.fr/2011/06/22/le-vent-solaire-se-leve/#comments Wed, 22 Jun 2011 15:19:49 +0000 Pierre Ropert http://owni.fr/?p=71126 21 décembre 2012. Le monde s’est éteint. A Paris, à New-York ou Bombay, le réseau électrique a cessé de fonctionner en moins de deux minutes. Le black-out total.

Et si l’on donnait du grain à moudre aux tenants des hypothèses apocalyptiques de 2012 ? Puisque les Mayas s’appuyaient sur les astres pour prédire leurs catastrophes, il serait logique que la fin du monde tel que nous le connaissons ait pour origine une étoile, en l’occurrence le soleil.

Si la prédiction des Mayas semble farfelue, celle du soleil comme origine de l’apocalypse est prise très au sérieux par la Nasa, comme en témoigne un rapport[en][pdf] publié en 2009. La faute à ces fameuses éruptions (ou éjections de masse coronale, de leur nom scientifique, CME en anglais), qui ont donné lieux à de superbes images le 7 juin dernier.

Cliquer ici pour voir la vidéo.


La vidéo est diffusée en accélérée.

Du plasma ionisé s’élevant dans l’espace pour revenir s’écraser à la surface du soleil. Le spectacle est superbe, et s’il a été autant relayé par les médias, c’est avant tout parce qu’il a été photographié et filmé sous de nombreux angles.

L’éruption avant la tempête… magnétique

A l’échelle du Soleil, cette éruption est relativement insignifiante. Mais ces CME ne sont pas sans conséquences pour la Terre. Constitué d’ions et d’électrons, un flux de plasma, nommé vent solaire, est projeté à travers l’espace. Des quantités monstrueuses de particules électromagnétiques, dispersées à une vitesse de 100 à 2500 kilomètres secondes, parcourent la distance qui sépare le soleil de la planète bleue en 2 à 4 jours.

Cliquer ici pour voir la vidéo.


Des boucles magnétiques en spirale, observées grâce à une lumière ultraviolette.

L’éruption du 7 juin dernier a envoyé son lot de particules électromagnétiques à travers le vide spatial. Ce nuage magnétique, en atteignant la terre, est absorbé par le bouclier magnétique terrestre. L’interaction entre la ionosphère, où circulent les ondes radio, et cet orage magnétique n’est pas sans effets : les services météorologiques chinois ont indiqué que les communications radios par ondes courtes avaient été perturbées dans le sud du pays. Rien de bien méchant donc. Au pire quelques satellites ont connu des problèmes mineurs.

La tempête de Carrington

Cette tempête géomagnétique a été classée G1 sur l’échelle de météorologie spatiale des tempêtes magnétiques [en], du National Oceanic and Atmospheric Administration [en] (NOAA), c’est-à-dire le plus faible niveau sur une échelle qui en comporte 5.

Au niveau 1, les répercussions sont relativement insignifiantes. Au cinquième échelon, elles sont en revanche bien plus dommageables. On compte ainsi deux exemples qui, par le passé, ont prouvé à quel point les tempêtes magnétiques pouvaient être à l’origine de terribles dégâts.

L'échelle de risques des tempêtes magnétiques de la NOAA.

Le premier de ces exemples est l’éruption solaire de Carrington, du nom de l’astronome qui a observé en 1859 à l’aide d’un télescope la plus grosse CME jamais enregistrée. Selon un article de la NASA [en], des habitants de Cuba ou d’Hawaï ont pu observer, probablement pour la première fois de leur vie, des aurores boréales. Elles étaient tellement intenses qu’il était possible, de nuit, de lire un journal. À l’époque, le réseau électrique était quasi inexistant mais les courants générés dans le sol ont surchargé les pylônes télégraphiques : les utilisateurs ont subi des décharges chargées d’étincelles, qui ont mis le feu au papier du télégraphe. Même le système débranché, il était toujours possible de transmettre des messages tant les lignes étaient chargées d’électricité.

À ce jour, il s’agit de la plus violente tempête géomagnétique jamais enregistrée. La raison est simple : elle s’est déroulée en deux temps. Une première éruption a envoyé un nuage électromagnétique qui a nettoyé le chemin entre le Soleil et la Terre, créant une véritable autoroute pour… la tempête électromagnétique causée par une seconde éruption. Cette dernière a atteint la Terre en 18 heures au lieu de 3 ou 4 jours. 5 % de l’ozone atmosphérique auraient été détruit lors de la tempête.

Le deuxième exemple est bien plus récent. Une seconde tempête, pourtant bien moins violente, a engendré des catastrophes qui témoignent de la fragilité des infrastructures face à ce type d’événements, à l’heure où les réseaux sont de plus en plus interdépendants (Internet, etc.). En mars 1989, une éruption solaire a créé un black-out quasi total au Québec. Les transformateurs d’Hydro-Québec, la compagnie en charge du réseau électrique, ont grillé suite à une surtension : en moins de 90 secondes, plus de 6 millions de personnes ont été plongées dans le noir. Dans le meilleur des cas, 9 heures ont été nécessaires pour que le courant soit rétabli.

A l’inverse, des orages magnétiques plus récents et classés G5, n’ont causé aucun dommage sur Terre.  En fait l’hypothèse d’un black-out total et mondial est relativement peu probable, pour plusieurs raisons :

- L’éruption solaire doit avoir lieu en direction de la terre, envoyant ainsi la majeure partie du nuage de particules magnétiques directement vers l’atmosphère terrestre

- L’incidence de la tempête magnétique dépend pour beaucoup de l’inclinaison de la terre. Habituellement ce sont les pôles qui sont les plus exposés, d’où les aurores polaires. C’est ce qui explique que seules certaines régions du monde soient touchées par des tempêtes magnétiques. La Terre est plus exposée lors des équinoxes (22 mars ou 22 septembre), lorsque son inclinaison par rapport au soleil la rend plus vulnérable à l’arrivée d’une tempête magnétique.

Le bouclier magnétique terrestre absorbe le nuage électromagnétique.

Scénario catastrophe

Dans le rapport financé par la NASA [en][pdf] publié en 2009 par l’Académie nationale américaine des sciences (NAS), des chercheurs s’interrogent sur les dangers d’une éruption solaire de la même ampleur que celle de Carrington.

Outre les troubles de communications, le dysfonctionnement des satellites et des GPS, c’est surtout l’interdépendance des réseaux qui inquiète le Comité sur l’impact sociétal et économique des événements météorologiques spatiaux extrêmes (Committee on the Societal and Economic Impacts of Severe Space Weather Events) :

L’énergie électrique est la clé de voûte de notre société moderne, dont dépendent presque toutes les infrastructures et services

Dès lors, le réseau est particulièrement vulnérable aux conditions météorologiques spatiales :

Une répétition de la tempête de Carrington causerait d’importantes perturbations sociales et économiques.

Si certains problèmes pourraient être réglés dès la fin de la tempête (les transmissions radios à nouveaux possibles par exemple), plusieurs semaines ou mois seraient nécessaires pour réparer les centaines -voire milliers- de transformateurs électriques endommagés en raison d’une surtension électrique… Les appareils électriques branchés au mauvais moment seraient tout simplement hors d’usage.

En l’absence d’électricité, la situation deviendrait vite ingérable : absence de chauffage ou de réfrigération, manque de nourriture (dû à des défaillance de distribution de l’alimentation), et surtout absence d’eau potable, qui, dans les grandes villes, ne sera plus acheminée en haut des immeubles.

Paradoxalement, les pays moins développés s’en sortiraient mieux que les pays développés, du fait d’une faible dépendance à ce genre d’équipements.

Ce scénario catastrophe n’a pas grand chose à envier aux films apocalyptiques régulièrement diffusés sur nos écrans. D’où ce rapport, dont l’objectif est d’inciter à la mise en place d’infrastructures capables de résister à ces éruptions solaires. Mais en l’absence d’une menace concrète et prévisible, il est difficile d’inciter à de nouveaux comportements.

Deux fois tous les mille ans

Car le risque reste faible. Des éruptions de la même intensité que celle qui a provoqué la tempête magnétique de Carrington en 1859 n’ont lieu que deux fois par millénaire, lors des cycles d’activité du soleil. Notre étoile fonctionne en effet sur des cycles d’activité d’une durée de 11 ans. C’est lors de ces phases qu’on observe les tâches et éruptions solaires les plus importantes. Actuellement, l’activité de notre étoile va aller croissante jusqu’en 2014, avec des CME plus importantes que celles du 7 juin dernier.

Pas de panique cependant, le soleil devrait entrer prochainement dans une période d’hibernation, avec à la clé une très faible activité. Au point que des scientifiques se questionnent sur son influence sur le climat terrestre (une légère baisse de température en perspective, mais pas de quoi non plus contrecarrer le réchauffement climatique), faisant craindre un nouveau “Minimum de Maunder“, une époque où le climat d’Europe et d’Amérique du Nord a valu à cette époque le surnom de petit âge glaciaire. Cette période correspondait justement à une diminution du nombre de tâches solaires.

La météorologie spatiale, et plus particulièrement le soleil, a une influence non négligeable sur la Terre. Reste que cette science n’est pas encore capable d’estimer avec précision les évènements solaires à venir. Mais pas de panique, même les prédictions Maya ont été réevaluées : la fin du monde n’aurait pas lieu en 2012 mais en 2116. Qu’il s’agisse d’une éruption solaire ou non, cela laisse un peu de temps.


Photos Flickr CC Paternité par NASA Goddard Photo and Video, PaternitéPas d'utilisation commerciale par -AX-, Wikimedia Commons Magnetosphere rendition

Retrouvez tous nos articles sur les sciences :

]]>
http://owni.fr/2011/06/22/le-vent-solaire-se-leve/feed/ 8
Les maths par Futurama http://owni.fr/2011/06/16/les-maths-par-futurama/ http://owni.fr/2011/06/16/les-maths-par-futurama/#comments Thu, 16 Jun 2011 09:55:21 +0000 El Jj http://owni.fr/?p=68095
Article publié sur OWNISciences sous le titre, L’équation Futurama


Le 23 juin prochain, Comedy Central lancera la deuxième partie de la sixième saison de Futurama, la petite sœur des Simpson, créée par Matt Groening et développée par David X. Cohen. La science est un sujet très présent chez les Simpson, mais c’est encore pire dans Futurama, où les clins d’œil à la physique, à l’informatique ou aux mathématiques sont légions, sans parler des références à la culture pop ! Il faut dire que, outre David X. Cohen, diplômé en physique de Harvard et en informatique de Berkeley, la série compte dans ses scénaristes Ken Keeler, diplômé en mathématiques appliquées de Harvard et Jeff Westbrook, diplômé en informatique à Princeton…

La série, diffusée de 1999 à 2003 sur la Fox, et depuis 2008 sur Comedy Central, narre les aventures de Fry, un livreur de pizza très moyen de la fin du XXe siècle, propulsé par erreur en l’an 2999…

Quelques clins d’œils à la physique (Le clone de Farnsworth) , à l'informatique (Le colocataire) ou à l'électronique (Proposition infinity). La géologie (L'enfer, c'est les autres robots) semble un peu moins appréciée...

Aujourd’hui, voici un panorama de tout ce que l’on peut trouver de mathématique dans Futurama ! (ça reste un blog mathématique !)

Nombres taxicab

Quand un nombre apparaît dans Futurama, c’est rarement un nombre choisi par hasard. Le nombre 1729, notamment, apparaît à de très nombreuses reprises :

Bender serait le 1729e robot de M'man (Conte de Noël), lors d'un épisode, l'équipe visite de nombreux univers parallèles, dont le n°1729 (Le bon, la boîte et l'ahuri) et le Nimbus, vaisseau commandé par Zapp Brannigan, a pour numéro BP-1729 (Le Monstre au milliard de tentacules)

Ce nombre est très célèbre pour être un nombre taxicab : un nombre qui peut être exprimé comme la somme de deux cubes, de plusieurs façons différentes (en l’occurrence, 2). En effet,

1729 = 13 + 123 = 93 + 103

Ces nombres sont surtout connus pour faire l’objet d’une anecdote impliquant Hardy et Ramanujan. Alors que le premier rendait visite au deuxième, malade, il lui annonça que le numéro de son taxi, 1729, était plutôt ennuyeux, et qu’il espérait que ce n’était pas un mauvais présage. Ramanujan lui dit que non, c’est un nombre tout à fait intéressant : il est exprimable comme la somme de deux cubes de deux façons distinctes !

Et à propos, le 3ème nombre Taxicab (exprimable comme somme de deux cubes de trois façons différentes) est 87539319 :

87539319 = 1673 + 4363 = 2283 + 4233 = 2553 + 4143

Qui, comme par hasard, apparaît -en petit- sur un taxi... (La grande aventure de Bender)

Il ne faut pas oublier que les numéros de série de Bender et de Flexo (les deux robots tordeurs) sont respectivement 2716057 = 9523 + (−951)3 et 3370318 =1193 + 1193, tous deux exprimables comme la somme de deux cubes. (Le genre de coïncidence qui font bien rire les deux robots lors de leur première rencontre). [Le moins pire des deux]

Aucun rapport : à la Central Bureaucracy, il existe une salle appelée Cubicle Room 729. On remarque tout de suite que 729 n’est autre que 93, et pour cause, la salle consiste en un cube 9×9x9 de bureaux en open-space.

(Lethal Inspection)

Nombres parfaits

Dans le registre des nombres qui ne sont pas là par hasard, il y a 6421.12 :

La facture de téléphone de Fry (Le Monstre au milliard de tentacules)

Si on fait le calcul, on s’aperçoit que Fry a appelé Dial-a-joke… 8128 fois ! (Soit 254 pages, avec 32 entrées par pages). Un nombre pas du tout aléatoire, puisque c’est un nombre parfait, un nombre égal à la somme de ses diviseurs propres. On note au passage que 8128=254*32 est sa factorisation par un nombre premier de Mersenne.

Irrationnels

A en croire la série, plus personne dans le futur n’aura de problèmes avec les nombres irrationnels…

√2 News, le rendez-vous information de Linda et Morbo de la chaîne √2 (Un gros tas d'ordures), la célèbre route √66 (Parasites perdus), la station de police de la √15e avenue (Astéroïque), et les dés de Mars Vegas (qui n'ont rien d'irrationnels, seulement le plaisir de mettre des radicaux) (Vous prendrez bien un dernier vert?)

De l'huile π-en-1 (Vol au-dessus d'un nid de robot); la πième avenue, qui arrive après la 2e et la 3e (Les actions du futur); le carton d'un supercollider de la marque πkéa (Astéroïque); π pour le prix de i, au milieu d'une dizaine d'autres spams sur l'écran d'Amy (La grande aventure de Bender), unique référence au nombre imaginaire i.

Et pour finir avec les références aux constantes mathématiques classique, le nombre e. Le vaisseau de Planet Express passe au travers de séquences de chiffres semblant aléatoires. Il s’agit en fait des décimales de e !

(Prenez garde au seigneur des robots !)

Infinis

L’infini mathématique est aussi source d’inspiration. Sous sa forme analytique, la proposition ∞ parodie la proposition 8 californienne du 2 mars 2008 interdisant le mariage homosexuel.

(Proposition infinity)

Mais surtout, l’infini apparaît dans le nom du cinéma de New New York : le Loew’s ℵ0-Plex. A en croire le nom, c’est un multiplexe qui aurait un nombre infini dénombrable de salles (ℵ0 désignant – à peu de choses près – le nombre d’élément de l’ensemble ℕ)

(Raging Bender)

Solides de Platon

Un des quatre épisode de la saison 4 met en scène la terrible M’man à la recherche de l’anticristal de matière noir, elle-même possédant déjà son cristal. A l’écran, le cristal (rouge) est en forme d’icosaèdre, et l’anticristal (noir) a celle d’un dodécaèdre, qui sont deux solides de Platon (un polyèdre dont toutes les faces sont un même polygone régulier). Mathématiquement, l’icosaèdre et le dodécaèdre sont duaux : on obtient l’autre en reliant le milieu des faces de l’un.

Dans ce même épisode, une scène montre les 3 autres polyèdres de Platon : le cube, le tétraèdre et l’octaèdre.

(Prenez garde au seigneur des robots !)

Il faut aussi parler de Madison Cube Garden, parodie du Madison Square Garden, un lieu récurrent de la série dans lequel se déroule les concerts ou les matchs de Blernsball. Sans surprise, il a la forme… d’un cube !

(Astéroïque)

Topologie

L’image scientifique la plus emblématique de la série reste la suivante :

(Le mal absolu)

Côte à côte, on peut voir de la liqueur de malt Olde Fortran (bière pour robot, en référence au langage de programmation Fortran), de la bière St Pauli Exclusion Principle Girl (référence croisée entre la bière St Pauli Girl et le principe d’exclusion de Pauli, en physique quantique) et surtout, de la bière de Klein, vendue dans des bouteilles de Klein (une surface mathématique ayant la particularité topologique de n’avoir ni intérieur, ni extérieur).

Dans la rubrique topologie, on peut aussi parler de l’épreuve de tordage des jeux olympiques, où un robot tord une poutre intordable en forme de nœud de trèfle (le nœud – au sens mathématique – le plus simple après le nœud trivial)

(L'homme est une femme formidable)

Grands théorèmes

On ne peut pas y échapper : la conjecture de Goldbach, l’hypothèse de Riemann ou la conjecture P=NP sont en l’an 3000 devenus de vrais théorèmes…

(Le Monstre au milliard de tentacules)

Une fois au paradis, Farnsworth et Wernstrom parviennent à démontrer la conjecture de Goldbach (qui dit que tout entier pair peut s’écrire sous la forme de la somme de deux nombres premiers). En détails, on peut lire sur le tableau :

GOLDBACH QUODLIBET (écrit en langage alien, signifiant littéralement en latin “n’importe quoi”)
n2+m < p1+p2 < (n+1)2+2m (une inégalité que l’on peut imaginer faire partie de la démonstration de Goldbach faisant intervenir la conjecture de Legendre (entre deux carrés, on trouve un nombre premier – à ce jour non démontrée) et le postulat de Bertrand (entre un entier et son double, on trouve un nombre premier))

3+5=8 (écrit de manière figurée, un exemple de nombre pair somme de deux premiers)

w’+z’→θ

η’+η’→2(η+ππ)

31, 314159 (les premiers nombres premiers que l’on peut obtenir en concaténant les décimales de pi)

π2(x) = 2c2 x/(ln(x))², x→∞

QED (“CQFD”) Nombre premier martien : ♂2 = 170141183460469231731687303715884105727 (un exemple de nombre premier de Mersenne 2p-1, où p est également un nombre premier de Mersenne)

etc…

Le problème P=NP (“un problème peut-il toujours être résolu rapidement par un algorithme ?“) fait une apparition au détour de deux livres dans le placard à balai des locaux de Planet Express.

Ne prêtez pas attention au fait que la tête de Fry est greffée sur le corps d'Amy, et regardez en bas à gauche. Un livre indique P, l'autre, NP (La tête sur l'épaule).

On peut aussi apercevoir l’hypothèse de Riemann (sous une forme démontrée) lors d’un cours sur les coniques :

(The Duh-Vinci Code)

Futurama parle également du théorème Greenwaldien, disant a²+b²>c² (l’homologue du théorème de Pythagore en géométrie sphérique). Il n’existe pas réellement de théorème Greenwaldien, c’est simplement un clin d’œil des scénaristes à Sarah Greenwald, qui a écrit plusieurs articles sur la science et les maths dans les Simspons et dans Futurama.

L’autre équation du tableau, E=9.87sin(2B)-7.53cos(B)-1.5sin(B), est l’équation du temps, utilisé en astronomie et qui mesure “la différence entre le temps solaire moyen et le temps solaire vrai“.

(La grande aventure de Bender)

Le théorème de Ken Keeler

Dans le dixième épisode de la saison 6, les scénaristes y sont allés encore plus fort : un théorème mathématique du domaine de la théorie des groupes, un vrai de vrai, a été inventé pour l’occasion, et sert de dénouement à l’intrigue !

Le professeur Farnsworth invente une machine permettant d’échanger deux esprits entre deux corps. Ainsi, l’esprit d’Amy se retrouve dans le corps de Farnsworth, et vice-versa. La premier soucis, c’est que si un échange est fait, il est impossible de revenir en arrière (Farnsworth et Amy ne peuvent plus échanger à nouveau leurs esprits). Le deuxième soucis, c’est que très vite, tous les personnages de la série utilisent la machine, et qu’une dizaine d’esprits sont dispersés dans tout autant de corps… Comment s’en sortir ?

(The Prisoner of Benda)

La solution est énoncée par les deux mathématiciens-basketteurs de la série, Sweet Clyde et Bubblegum Tate : en ajoutant seulement deux personnes, il est possible de remettre à leur place tous les esprits, quel que soit le nombre d’échanges ayant été faits. Et ils le prouvent :

Oui. Il s'agit bien de la preuve d'un théorème de la théorie des groupes. Entièrement rédigé. Dans une série du câble. (The Prisoner of Benda)

Le théorème montre que si le corps et l’esprit de k personnes sont mélangés, il suffit de deux autres personnes et de k+3 échanges (au plus) pour que chacun retrouve sa place initiale.

Avec l’aide des deux corps de Clyde et Tate, les 9 esprits mélangés parviennent à retrouver leur corps d’origine, en 13 échanges (dans le contexte de l’épisode, on peut montrer que le problème était résolu en 9 échanges, sans l’intervention de deux autres personnes).

Tout le reste

Il me reste encore plein d’images à mettre… Ca ne vous gêne pas si je les mets là, en désordre ?

11 est plus grand que 4. Cette vérité mathématique fait partie de l'ensemble de la connaissance humaine, rassemblée par les cerveaux avant de détruire l'Univers. (Fry : Le pourquoi du comment)

Bender lance une agence de rencontre : discrète (qui n'attire pas l'attention) et discrète (non continue). (La tête sur l'épaule)

∀xI♥x : une façon mathématique de dire qu'elle aime tout ce qui existe. (Le Monstre au milliard de tentacules)

Dans les tréfonds de l'Internet, toutes les perversions ont leur site, notamment, "Girls proving theorems". (Le mariage de Leela)

De nombreuses célébrités sont caricaturées dans Futurama. Entre autres : Euclide. (The Duh-Vinci Code)

Le nombre 0101100101 (357, en binaire), écrit en lettre de sang sur le mur, ne fait peur à personne. Le reflet dans le miroir est un peu plus effrayant : 1010011010 signifie 666 en binaire. (La voiture garoute)

Et il semble que la série ne va pas s’arrêter là. L’épisode prévu pour le 4 août prochain, intitulé “Möbius Dick“, parle d’une baleine de l’espace à 4 dimensions…

Sources :

Dr. Sarah’s Futurama Math: Mathematics in the Year 3000


Article initialement publié sur le blog “Chou Romanesco, vache qui rit et intégrales curvilignes” sous le titre “The Farnsworth Parabox”.

Photo Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par repost.no.

]]>
http://owni.fr/2011/06/16/les-maths-par-futurama/feed/ 18
Les particules surfent sur la vague http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/ http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/#comments Wed, 01 Jun 2011 09:06:40 +0000 Roud http://owni.fr/?p=35016 La mécanique quantique est le domaine de la physique à la fois le plus mystérieux et le plus popularisé auprès du grand public. Lorsqu’elle a été inventée dans les années 20, ses propriétés mathématiques parraissaient si étranges que de nombreux débats philosophiques ont eu lieu pour comprendre l’implication de cette physique sur la notion de réalité même.

Ce qu’il y a d’étonnant dans la mécanique quantique est qu’elle donne une vision fondamentalement incertaine du monde. Les particules quantiques se comportent tantôt comme une onde, tantôt comme une particule, une observation ne donne pas un résultat déterminé, mais probabiliste.

A cela s’ajoutent des effets bizarres comme le principe d’incertitude d’Heisenberg, spécifiant qu’un observateur peut modifier la nature de l’expérience physique simplement en la regardant, ou encore le paradoxe du chat de Schrödinger … Vous avez probablement entendu parler de ces interprétations qui, quoique bien définies mathématiquement, donnent un parfum très ésotérique à la physique quantique et la rendent quelque peu inaccessible au commun des mortels. Faut-il inventer une nouvelle philosophie, une nouvelle vision du monde et de la réalité pour comprendre notre univers ? (Ou notre multivers ?)

D’un point de vue purement scientifique, une école de pensée, dite de Copenhague, a fini par s’imposer. C’est en réalité une certaine école du renoncement : fi de ces histoires de dualité onde-particule, il est inutile de se poser des questions sans fins. La formule symbole de cette interprétation est le fameux “shut-up and calculate” de Feynmann, i.e. :

Ne te pose pas de questions et calcule.

L’idée est que le monde quantique reste incommensurable, incompréhensible pour nos cerveaux primitifs d’homo sapiens, le monde est tout simplement différent à petite échelle, et la seule beauté mathématique de l’équation de Schrödinger peut nous permettre de comprendre ce qu’il s’y passe.

Ondes et particules

Einstein (parmi d’autres) n’accepta jamais cette interpétation. Il propose avec Podolsky et Rosen un argument en 1935, appelé “paradoxe EPR”, visant à réfuter l’interprétation de Copenhague, théorie dite “non-locale”. L’illustration la plus connue de cette non-localité est ce qu’on appelle l’intrication quantique : des particules quantiques semblent pouvoir interagir à très grande distance, comme si la réalité physique d’une particule défiait l’espace en s’étendant en plusieurs endroits simultanément. Einstein pensait que c’était impossible et que des théories locales à “variables cachées” pouvaient tout expliquer.

Dans les années 60, John Bell propose une formulation mathématique de ce paradoxe EPR, les “inégalités de Bell”, ouvrant la voie à des tests expérimentaux du paradoxe, réalisés in fine pour la première fois par Alain Aspect, qui montre effectivement que la mécanique quantique les viole (10.000 fois plus vite que la lumière). L’école de Copenhague triomphe : cette violation prouve qu’il n’y a pas de théories locales à variables cachées pouvant rendre compte de la mécanique quantique, et donc qu’il est inutile de tenter de dépasser la froideur mathématique de l’équation de Schrödinger, seule façon de décrire le monde à petite échelle. L’interprétation s’impose définitivement, est enseignée dans les universités, le débat semble clos (en tous cas pour les non-experts un peu éclairés dans mon genre).

Mais le diable est dans les détails : la violation des inégalités de Bell montre que la mécanique quantique est une théorie “non-locale”, comme le veut l’interprétation de Copenhague, mais elle ne montre pas pour autant que l’interprétation de Copenhague est valide (en particulier son aspect purement probabiliste). Or certains physiciens, et pas des moindres, ont continué à travailler sur des théories qui, contrairement à l’interprétation de Copenhague, ont le bon goût d’être déterministes et non probabilistes : De Broglie et Bohm ont ainsi développé une théorie dite de l’onde porteuse, ou onde guide. On peut résumer en quelques mots cette théorie de la réalité : un système quantique n’est ni une particule, ni une onde mais la conjugaison d’une particule littéralement “portée” par une onde, un peu comme un surfeur sur une vague. Lorsque l’on explore alors les propriétés de la matière, on est tantôt en interaction avec une particule, tantôt en interaction avec l’onde, d’où la fameuse dualité observée en mécanique quantique.

Cette théorie a également le bon goût d’être non-locale : l’onde porteuse s’étend à tout l’univers, et donc on peut interagir avec la particule “à distance” via une action sur sa propre onde porteuse. Elle n’est donc pas nécessairement en contradiction avec les expériences de violation des inégalités de Bell dont on parle ci-dessus. Le plus gros problème, qui hérisse le poil de nombreux physiciens, est cette non-localité, et cette théorie ne s’est pas imposée, trop ésotérique. Ironie de l’histoire, l’un des grands défenseurs de cette théorie n’est autre que John Bell lui-même, l’homme qui par ses travaux a indirectement tué le paradoxe EPR.

Transportons-nous maintenant au début des années 2000. Changeons de domaine : place à la physique de la matière dite “molle”, place à cet élément étrange et commun … l’eau.

Cliquer ici pour voir la vidéo.

(Pour les non-anglophones, une version sous-titrée de cette vidéo est disponible sur dot sub)

Grâce aux progrès dans l’acquisition des images, on peut filmer en temps réel ce qui se passe lorsqu’une goutte d’eau tombe sur une surface libre. On observe alors un phénomène tout à fait fascinant dû à la tension de surface (la même propriété physique à l’origine des effets de capilarité) : lorsqu’une goutte tombe sur une surface d’eau, elle va pouvoir “rebondir” plusieurs fois sur celle-ci. Au moment des rebonds, elle va en plus créer une petite onde autour d’elle. Au bout du compte, l’énergie se dissipe, la goutte se stabilise à la surface avant de fusionner avec celle-ci. Dans cette petite expérience très simple, notez qu’on a deux ingrédients intéressants : une “particule” (la goutte), et une onde (créée par la goutte qui tombe), l’onde étant bien sûr en interaction avec la particule via les lois de la mécanique des fluides. On n’est pas très loin de l’image de Bohm-De Broglie, le seul “problème” étant la dissipation d’énergie qui entraîne la stabilisation de la goutte et sa fusion avec la surface.

La solution paraît rétrospectivement simple : injecter de l’énergie dans le système

C’est l’idée qu’ont eu Yves Couder (de l’université Paris VII) et son équipe : en faisant “vibrer” la surface d’eau, on peut arriver à entretenir le rebond de la goutte, qui sautille ad vitam aeternam, générant une onde dans sur la surface de l’eau. Mieux, en ajustant un peu les paramètres, on peut arriver à ce que l’onde soit déphasée par rapport au rebond de la goutte, ce qui a pour conséquence de transformer la goutte rebondissante en goutte voyageuse, “marcheur” allant bien droit. L’onde générée par le rebond est ainsi transformée en “onde porteuse”, un peu comme dans la théorie de Bohm-De Broglie ! Encore mieux : si on commence à mettre plusieurs gouttes ensemble, non seulement celles-ci bougent, mais elles vont pouvoir interagir via l’onde se propageant à la surface de l’eau. Une vidéo vaut mieux qu’un long discours :

(Vidéo en Supplément de Dynamical phenomena:  Walking and orbiting droplets, Y. Couder, S. Protière, E. Fort & A. Boudaoud, Nature 437, 208(8 September 2005); on notera la différence de moyens entre les télés américaines et les labos français)

Les choses vraiment amusantes et dérangeantes peuvent alors commencer : étant donné ce système dual onde-particule, déterministe et macroscopique, sa physique ressemble-t-elle à la physique quantique ?

A ce jour, Couder et son équipe ont essayé plusieurs expériences, et de façon assez fascinante ont réussi à reproduire plusieurs effets quantiques. Toutes ces expériences reposent sur l’interaction du système goutte/onde avec l’équivalent macroscopique d’un mur, en l’occurrence ici une zone où on empêche la goutte de se propager par rebond (en modifiant la profondeur locale du bassin). Les effets suivants ont été observés : Couder et Fort ont reproduit avec leur système les figures de diffraction de la très fameuse expérience de fentes d’Young expliquée ci-dessous :

Cliquer ici pour voir la vidéo.

Feynman a dit un jour que cette expérience est un “phénomène impossible, absolument impossible, à expliquer de façon classique et qui est au fondement même de la mécanique quantique”. On peut donc affirmer aujourd’hui que Feynman avait tort sur le premier point. L’expérience de Couder explique le paradoxe quantique suivant : on peut envoyer une seule goutte qui passe par une seule fente tout en ayant des interférences sur l’écran.

Comment ? L’idée est que l’onde porteuse qui guide la goutte rebondissante par une fente va interférer avec son homologue passant par l’autre fente , du coup, elle va guider et localiser in fine la goutte sur une seule bande d’interférence constructive de l’onde. Ce qui est très impressionant est que cette expérience de Couder et Fort reproduit exactement, de façon tout à fait classique, l’expérience montrée par Dr Quantum ci-dessus : on envoie une à une des gouttes (comme Dr Quantum envoie des électrons) et la statistique des trajectoires individuelles des gouttes sur le long terme reproduit la figure de diffraction des ondes ! L’aspect probabiliste sur les trajectoires dans ce système classique vient quant à lui vraisemblablement d’une dynamique chaotique au moment où la goutte passe par la fente. Inutile d’invoquer un changement de nature de la goutte qui se dédouble en multivers quand elle passe les fentes !

Interférences dans les statistiques de position de la goutte dans l'expérience de Fort-Couder

Interférences dans l'expérience quantique des fentes d'Young

Une goutte peut “traverser” un mur par l’équivalent macroscopique d’un effet tunnel - cet effet de mécanique quantique qui fait qu’une particule peut jouer les passe-murailles :

Last but not least, modulo une jolie analogie entre champ magnétique et vecteur rotation, une quantification est observable dans ce système : des “marcheurs” placés dans une bassine tournante sur elle-même ne peuvent aller n’importe où et se localisent précisément à certaines distances du centre, tout comme les niveaux d’énergie d’une particule quantique sont eux-mêmes discrets.

Quantification des localisations de la goutte (panneau de droite)

La plupart des effets “quantiques” reposent donc sur une interaction très forte entre la goutte et l’onde qui la guide. Comme l’explique Yves Couder lui-même :

Ce système où une particule est guidée par une onde se distingue des modèles théoriques d’ondes pilotes par le fait que tous les points récemment visités par le marcheur restent des sources d’ondes. La structure du champ d’onde forme donc une “mémoire” du chemin antérieur parcouru par la goutte.

Cette notion de mémoire de chemin est l’effet crucial, non local, nouveau par rapport à la théorie de De Broglie-Bohm, qui explique tous les comportements quantiques. Du coup, on peut se demander si ces expériences ne constituent pas les prémisses d’une révolution conceptuelle dans la mécanique quantique, car loin de simplement reproduire les résultats bien connus du monde quantique, elles suggèrent des nouvelles pistes de réflexions, des concepts, voire des expériences permettant de mieux appréhender l’infiniment petit.

Peut-être que le monde quantique sera in fine différent de cette image simple, mais les leçons épistémologique de cette série d’expériences n’en sont pas moins vertigineuses. D’abord, elles rappellent l’importance cruciale de la réalité expérimentale, trop souvent oubliée par les théoriciens. La nature sera toujours plus intelligente que nous. Ensuite, elles mettent en exergue le danger potentiel de trop se focaliser sur le formalisme, certes puissant, certes efficace, mais qui peut amener à occulter en partie la réalité même.

Extrapolons : imaginons que ces expériences aient quoi que ce soit à voir avec le monde quantique, on peut alors dire adieu au principe d’incertitude d’Heisenberg par exemple. Que penser alors de nombreuses “philosophies” développées autour de ce principe ? Enfin, il est fascinant de voir que cette physique des gouttes rebondissantes est un phénomène complexe, multi-échelle, avec mémoire, un phénomène typiquement émergent en somme. Se pourrait-il que la physique quantique, théorie phare du XXième siècle, échoue en définitive à donner une vision simple de la réalité par excès de réductionnisme ?

Post-Scriptum :
tout cela pose également des questions sur l’enseignement de la physique. J’avais déjà déploré dans un billet précédent l’accent mis sur la physique quantique au détriment de la physique classique des systèmes complexes, cette série d’expériences montre bien l’absurdité de la chose (et oui, moi je veux la peau de Sheldon Cooper).

Bêtisier : en rédigeant ce billet, je suis tombé sur un communiqué du CNRS de 2005 parlant de ces expériences. Pour le CNRS, donc :

Ce genre d’étude est relié aux applications industrielles qui font intervenir des gouttes, par exemple les imprimantes à jet d’encre.

On parle ici de révolution scientifique potentielle, de changement profond de notre connaissance du monde, et le CNRS parle imprimante à jet d’encre. C’est digne du petit jeu auquel on jouait dans ce billet et en commentaires.

Références

Couder Y, Protière S, Fort E, Boudaoud A (2005) Dynamical phenomena: Walking and orbiting droplets. Nature 437:208.

Couder Y, Fort E (2006) Single-particle diffraction and interference at a macroscopic scale. Phys Rev Lett 97:154101-1–154101-4.

Eddi A, Fort E, Moisy F, Couder Y (2009) Unpredictable tunneling of a classical wave-particle association. Phys Rev Lett 102:240401-1–240401-4.

Bush JW (2010) Quantum mechanics writ large Proc. Natl. Acad. Sci. USA 2010 107 (41) 17455-17456


Article initialement publié sur Matières Vivantes sous le nom “La nature de la réalité”.

Photos Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par zedamnabil

]]>
http://owni.fr/2011/06/01/les-particules-surfent-sur-la-vague/feed/ 33
Les connaissances scientifiques à la carte http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/ http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/#comments Tue, 24 May 2011 10:18:46 +0000 Raphaël Velt http://owni.fr/?p=34902 Les techniques cartographiques peuvent s’appliquer à toutes les disciplines scientifiques, notamment en biologie où elles servent entre autres à décrire les réseaux trophiques (plus connus sous le nom réducteur de « chaînes alimentaires ») ainsi que les réseaux complexes d’interactions entre molécules. Je m’intéresserai aujourd’hui à leur application à l’épistémologie, c’est à dire l’étude de ce que sont les connaissances humaines.

Les techniques cartographiques peuvent en effet décrire l’état des connaissances scientifiques ainsi que la dynamique de la recherche. Après un historique rapide des cartes des sciences et quelques exemples récents, j’évoquerai les usages et applications de celles-ci.

Une brève histoire de l’organisation des connaissances

Le classement des savoirs est une question philosophique majeure aux origines anciennes, qui prennent racine dès l’Antiquité grecque et la Métaphysique d’Aristote. Mais sautons quelques siècles pour découvrir l’une des premières présentations synthétiques et graphiques, publiée dans l’œuvre phare du siècle des Lumières, l’Encyclopédie de Diderot et d’Alembert. Le Discours préliminaire, publié en 1751 dans le premier tome de l’Encyclopédie, s’achève en effet par une planche présentant le « Système figuré des connoissances humaines », représentant celles-ci sous forme d’un arbre. Celui-ci part d’une racine qu’est l’« Entendement » et de trois branches principales que sont l’Histoire, la Philosophie et la Poésie, qui se divisent elles-mêmes sur plusieurs niveaux, jusqu’à couvrir aussi bien les procédés artisanaux et industriels que les sciences, les arts et la religion.

Système figuré des connoissances humaines

Cette classification vieille de deux siècles et demi semble aujourd’hui quelque peu désuète. Depuis, l’organisation proposée par le bibliothécaire américain Melvil Dewey en 1876 a connu bien plus de succès. La Classification Décimale de Dewey, qui a certes subi quelques aménagements pour accueillir les nouvelles disciplines nées entretemps, est toujours utilisée par les bibliothèques du monde entier pour classer les ouvrages dans les rayons, selon un code numérique à trois chiffres. Ces codes sont organisés de manière hiérarchique, le premier chiffre correspondant à un grand domaine, par exemple 3xx pour les sciences sociales, le second à un sous-domaine plus précis, comme 32x pour les sciences politiques, et ainsi de suite, 327 pour les relations internationales.

Classification Décimale de Dewey

L’un des défauts de cette classification est qu’elle est mal adaptée aux documents qui ne rentrent pas suffisamment précisément dans ses cases. C’est pourquoi les juristes belges Paul Otlet et Henri La Fontaine ont développé la Classification Décimale Universelle, dérivée de celle de Dewey, offrant des possibilités de combinaisons entre codes décimaux.

Mais ces classifications sous forme d’arbres, si elles facilitent l’accès aux connaissances et aux documents, ne rendent pas compte des relations que les disciplines ont entre elles. Par exemple, la hiérarchie de Dewey, qui classe la biochimie dans les Sciences de la Vie avec le code 572, ne traduit pas la parenté de celle-ci avec la chimie organique (code 547).
L’une des premières tentatives de présenter l’organisation des sciences en tenant compte de ces relations a été réalisée par le britannique John Desmond Bernal, physicien et chimiste spécialisé dans la cristallographie, mais également militant politique et auteur de l’un des premiers ouvrages consacrés aux relations entre sciences et société, La fonction sociale de la science.

Dans ce livre paru en 1939, il propose une cartographie hiérarchique partant des fondamentaux théoriques, en haut du schéma, et descendant vers les applications techniques quotidiennes. De gauche à droite de la carte, les colonnes correspondant à trois grands secteurs : le secteur physique (lui-même sous-divisé en physique et chimie) et les secteurs biologique et sociologique. Les blocs du dessin sont reliés par des flèches indiquant les apports théoriques entre disciplines : par exemple, la biochimie reçoit ainsi, entre autres, des flèches provenant de la physique nucléaire et de la chimie des polymères et en retour, alimente la biologie cellulaire et l’industrie des fibres et plastiques.

Carte de Bernal, 1939

Cette carte, comme celle que publiera le chimiste Ellingham (connu également pour ses représentations visuelles des états d’énergie des réactions d’oxydo-réduction) neuf ans plus tard, est basée sur la connaissance que l’auteur a de son champ d’études.

Carte d’Ellingham, 1948

Les débuts de la scientométrie

À côté de cette approche qualitative, une autre approche a commencé à se développer quelques années plus tard, se basant non plus sur une expertise mais sur des données quantitatives collectées, analysées puis représentées visuellement. La mesure des traces de l’activité scientifique, basée sur l’analyse des publications des chercheurs, se nomme la scientométrie. Celle-ci a fourni les bases conceptuelles à partir desquelles seront élaborées les cartographies des sciences que j’évoquerai dans la suite de cet article.

Le britannique Derek John de Solla Price et l’américain Eugene Garfield furent parmi les premiers, dès les années 60, à représenter la recherche scientifique sous des formes de réseaux, en se basant sur les relations de citations entre articles. Garfield s’est notamment inspiré de l’index des citations de Shepard, créé en 1873 pour répondre aux besoins de documentation des juristes américains. Il transposa cet index dans le monde scientifique, fondant l’Institute for Science Information (depuis racheté par Thomson Reuters) et publiant le premier Science Citation Index en 1960.

Le premier exemple de représentation graphique d’un réseau de citations connu date de cette même année et représente les relations entre quinze articles qui, de 1941 à 1960, ont permis le développement de la technique de coloration des acides nucléiques. Pour Garfield, « bien qu’Allen [l'auteur de la représentation] n’en ait pas eu l’intention, le diagramme résultant [le] frappe comme étant un tracé concis, facile à comprendre du développement historique de [cette] méthodologie ».

Réseaux de citations d’Allen, 1960

Un paysage plus large : des réseaux de chercheurs, publications, mots et institutions

Les éléments que la scientométrie peut extraire des publications vont bien au-delà de ces réseaux de citations. À un article scientifique sont en effet rattachés les noms de ses auteurs et leurs institutions, la revue dans laquelle il a été publié, mais également l’ensemble des mots qu’il – ou que son résumé – contient.

D’autres traces des sciences, de plus en plus accessibles avec l’ouverture des universités sur le web, sont les annuaires des établissements de recherche, qui fournissent notamment les listes de leurs chercheurs, classés par disciplines, unités de recherche et/ou projets.

Tous ces types de données peuvent servir comme briques de base des cartographies et constituer les points du paysage, les nœuds des réseaux. Pour les relier et déterminer les distances entre eux, plusieurs rapprochements sont possibles. Le lien de citation d’un article par un autre, que nous avons déjà évoqué, en est un, et fonctionne aussi bien pour relier des articles entre eux que pour relier des auteurs (qui cite qui ?), des institutions ou des revues.

Un autre rapprochement entre deux auteurs peut venir du fait d’être cités tous les deux dans un même article (et non d’être cité l’un par l’autre), formant un lien dit de co-citation. Pour poursuivre cette liste (qui n’est pas exhaustive), on parle de co-occurrences lorsque des mots sont rapprochés. Ces co-occurences fonctionnent à double sens : pour comparer des articles selon leur proximité lexicale ou, en sens inverse, pour rapprocher des mots ou des expressions entre elles, selon le nombre d’articles qui les utilisent.

Changer d’échelle, cartographier toutes les sciences

Après avoir vu un réseau de citation à l’échelle d’une quinzaine d’articles, changeons de dimensions et projetons-nous à l’échelle de l’ensemble des disciplines scientifiques. Quelles propriétés apparaissent si l’on cartographie la totalité des articles répertoriés dans le Science Citation Index ?

Jusqu’au début des années 2000, les technologies ne permettaient pas d’atteindre l’exhaustivité et la précision des cartes les plus récentes : les données n’étaient pas aussi faciles d’accès et les capacités de calcul des ordinateurs insuffisantes ou trop coûteuses pour des quantités de données aussi importantes.

Les premiers essais de cartographies calculées à l’échelle globale contournaient ce dernier obstacle en limitant fortement le nombre d’articles pris en compte à quelques milliers ou quelques dizaines de milliers.

Carte de 1983

Le nombre important d’articles (jusqu’à 2 millions dans une carte publiée en 2007) peut poser des problèmes de lisibilité lorsque chaque nœud de la carte est un article. Tout en gardant les mêmes données de citations entre articles, certaines cartes regroupent les articles par revues (chaque nœud de la carte représentant une revue), voire par groupe de revues, selon la classification de celles-ci en catégories proposées par Thomson Reuters.

Carte de 2008 de Rosvall & Bergstrom

Faire apparaître la structure des sciences

Quelle que soit la méthode employée, une structure générale des sciences semble se dégager, sous une forme circulaire : les sciences physiques sont très liées à la chimie et aux sciences de l’ingénieur qui, connectées respectivement par la biochimie et les sciences de la terre, amènent aux sciences de la vie, puis à la médecine. Les neurosciences connectent celle-ci à la psychologie. De là, le cercle se referme grâce aux sciences humaines et sociales, puis à l’informatique et enfin les mathématiques qui se reconnectent aux sciences physiques.

Carte du consensus de Klavans et Boyack

Ces cartes ne mettent pas seulement en évidence les positions relatives des disciplines, mais également leur poids (qui peut se mesurer au nombres d’articles, de journaux, de chercheurs ou même aux financements que celles-ci reçoivent) : ainsi, la médecine et la biologie apparaissent comme étant les domaines les plus actifs.

Cette mise en évidence de la structure des sciences laisse entrevoir deux types d’usages fondamentaux de ces cartes : un outil pratique pour les chercheurs ainsi qu’un outil de communication. Les cartes permettent ainsi de faire connaître la structure des sciences à un certain nombre de publics.

Des cartes pour comprendre la dynamique des sciences

L’étude de l’évolution de ces cartes dans le temps peut faire apparaître des changements dans l’organisation des disciplines et retracer l’évolution de celles-ci. Ainsi, on peut assister à l’apparition de l’informatique ou voir comment les neurosciences se sont structurées en empruntant à des domaines aussi divers que la biologie moléculaire, la psychologie et l’informatique.

Cartographier les changements

À des niveaux plus précis, ces cartes permettent également de visualiser la dynamique d’une seule discipline, d’un sujet de recherche ou d’un groupe de chercheurs et de savoir, par exemple, quels sujets sont liés entre eux, ou quels scientifiques travaillent sur les mêmes problématiques. La densité ou au contraire la dispersion des points de la carte permettent également de savoir si un sujet de recherche est cloisonné ou si ses spécialistes dialoguent fortement avec ceux de domaines proches.

Les travaux de Chaomei Chen, chercheur en sciences de l’information à l’université Drexel à Philadelphie, visent à utiliser ces cartes pour déterminer des caractéristiques mesurables de ce qu’est la créativité. Celui-ci considère en effet que les articles les plus innovants se repèrent à leur capacité à rapprocher des idées qui jusque là n’interagissaient pas et à modifier fortement la structure de leur discipline, ouvrant de nouveaux axes de recherche. Des articles ayant ces particularités se repèrent facilement sur des cartographies des sciences dans lesquelles la couleur ou la position sur un axe des articles exprime la date à laquelle ils ont été publiés.

Cliquer ici pour voir la vidéo.

Des cartes pour prendre des décisions

Savoir où se trouve l’innovation répond à des enjeux évidents et peut aider à guider des choix économiques et politiques. Les cartographies des sciences répondent également à d’autres questions de politiques de la recherche. Pour mettre en avant l’intérêt de celles-ci, Ismael Rafols de l’université de Sussex, donne l’exemple de l’évaluation des universités, qui jusqu’ici, se fait principalement à partir d’indicateurs chiffrés de leur activité scientifique. Ceux-ci sont notamment à l’origine des polémiques sur le classement de Shanghaï : celui-ci, basé sur un indice calculé à partir de données telles que le nombre d’articles publiés dans Science etNature par une université et le nombre de Prix Nobel qui en sont issus, tend à favoriser les institutions les plus grosses.

Comme alternative, Rafols propose un nouvel outil, nommé Overlay Mapping, basé sur une carte des sciences utilisée comme référence. En superposant les données de l’activité d’une institution (de recherche ou de financement) à cette carte, la diversité et la répartition de cette activité apparaît immédiatement.

Cartographies réalisées avec l’Overlay Toolkit

Cliquer ici pour voir la vidéo.

Les questions de financement de la recherche sont également liées aux problématiques de développement territorial. Certains travaux mettent donc en évidence la relation entre les « territoires virtuels » tracés par les cartographies des sciences et les espaces géographiques. C’est notamment le cas du projet VisIR, réalisé dans le cadre du pôle de compétitivité breton Images et Réseaux par Franck Ghitalla et l’École de Design de Nantes.

Projet VisIR

Un autre exemple d’utilisation comme outil d’aide à la décision est cette cartographie des cours proposés à l’université Brown, conçue pour que les étudiants trouvent les cours les plus pertinents par rapport à leurs centres d’intérêt (la proximité entre deux cours dépend du nombre d’étudiants qui les suivent tous les deux).

Carte des Cours de l’Université Brown

Des cartes pour interagir avec des données

Les cartographies en général sont considérées par les chercheurs comme des outils d’analyse exploratoire de données. Si la vérification des hypothèses continue généralement à se faire avec des méthodes statistiques reposant sur des données chiffrées, ce type de visualisation peut être nécessaire lors de la manipulation de grandes quantités de données pour voir apparaître des structures et y retrouver des éléments particuliers.

Cette exploration a beaucoup à gagner à l’utilisation de technologies interactives : si les sous-domaines des sciences physiques ne sont pas facilement lisibles sur une carte globale des sciences (à moins de l’imprimer en grand format), les possibilités de zoomer et de sélectionner un sous-ensemble d’éléments facilitent la lecture de l’organisation hiérarchique des sciences, du niveau global aux sujets les plus pointus.

En dehors de ce passage d’une échelle à l’autre, les dispositifs interactifs ouvrent une multitude de possibilités de navigation entre les différentes dimensions des cartes de sciences, par exemple passer des articles aux chercheurs et aux mots-clés (c’est notamment ce que permet le projet TINA de l’Institut des Systèmes Complexes de Paris-Île de France).

Cliquer ici pour voir la vidéo.

Des cartes pour tous les publics ?

Ces cartes fournissent ainsi des moyens d’accéder à de nombreux aspects des sciences et leurs applications pourraient servir tous les citoyens, aussi bien pour la communication d’enjeux de société liés aux problématiques scientifiques et techniques que comme supports pédagogiques à l’école.

Carte des Sciences pour Enfants

Mais, de la même manière que tous les conducteurs n’ont pas la même facilité face à une carte routière, la lecture de ces outils n’a rien d’inné. Les cartographies des sciences se multiplieront sans aucun doute dans les années à venir, mais la vitesse et l’étendue de leur adoption dépendront de la capacité des concepteurs de ces objets à dialoguer avec leurs publics pour à la fois rendre les cartes plus simples à lire et éduquer les lecteurs à décrypter leurs significations.

Si les cartes des sciences veulent dépasser la communauté scientifique, leur avenir est tout autant dans les mains de ceux qui connaissent les sciences que chez les designers d’interactions.

Pour aller plus loin…

L’une des collections les plus complètes de cartographies des sciences, où se retrouvent la plupart des cartes évoquées ici, a été réalisée par Katy Börner, chercheuse en Sciences de l’Information à l’Université d’Indiana. Celle-ci se présente sous la triple forme d’un site web, d’une exposition itinérante et d’un beau livre, Atlas of Science. Cette collection se construit par cycles, et de nouvelles cartes seront rajoutées jusqu’en 2014.

A noter également la conférence « Mapping the Digital Traces of Science », organisée par l’Institut des Systèmes Complexes, regroupant des spécialistes de la cartographie des sciences (dont Chen et Rafols, cités dans cet article) et dont vous pouvez retrouver la captation vidéo en ligne.

En français, vous pouvez retrouver les réflexions du chercheur Franck Ghitalla sur son blog nommé l’Atelier de Cartographie.


Article publié sur Knowtex sous le nom “Cartographier les connaissances scientifiques“.

Photos Flickr CC PaternitéPas d'utilisation commerciale par Kotomicreations et PaternitéPas d'utilisation commercialePas de modification par frankfarm.

Illustrations :

  1. Wikipedia Commons
  2. Bibliothèque centrale de Seattle, photo Creative Commons par Frank Farm
  3. John Desmond Bernal, extrait de The Social Function of Science, 1939, reproduit dans Atlas of Science
  4. Harold Ellingham, Natural Science and Technology Chart, 1948, reproduit dans Atlas of Science
  5. Extraite d’Eugene Garfield, Citation Index to Genetics and Science Literature, 1960, reproduit dans Atlas of Science
  6. Extraite de Small & Garfield, The geography of science: disciplinary and national mappings, 1985, Journal of Information Science.
  7. Carte représentant les citations entre les catégories de revues de Thomson Reuters, présentée surEigenfactor.org.
  8. Créée en regroupant les données issues de 20 autres cartes, dont celles des illustrations 3, 4, 6 et 7, issue de Klavans & Boyack, Toward a Consensus Map of Science, Journal of the American Society for Information Science and Technology, 2009
  9. Diagramme présentant l’évolution des catégories de journaux, présentant la création de la catégorie « Neurosciences » et les catégories auxquelles les journaux qui la composent étaient auparavant reliées. Extrait de Rosvall et BergstromMapping Change in Large Networks, 2010.
  10. Cartes réalisées avec l’outil Overlay Maps, présenté sur le site Measuring and Mapping Interdisciplinary Research. Pour aller plus loin, lire Rafols, Porter & Leydesdorff, Science overlay maps : a new tool for research policy and library management, Journal of the American Society for Information Science and Technology, 2010.
  11. Projet VisIR, Franck Ghitalla, INIST-CNRS. Pour aller plus loin, lire la présentation du projet.
  12. Carte des cours de l’Université Brown, créée par Dylan Field, Devin Finzer et Ram Jayakumar
  13. Carte des Sciences pour Enfants, créée par Fileve Palmer, Julie Smith, Elisha Hardy et Katy Börner. Pour aller plus loin sur l’usage des cartes des sciences pour les enfants lire l’article Teaching Children the Structure of Science, des mêmes auteurs.

.

]]>
http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/feed/ 6