« Princeton » et « Oxford », « Princeton University Press », les noms comptent pour l’image d’un ouvrage. Les noms accolés sur l’ouvrage de Nielsen renvoient à des traditions universitaires solides et prestigieuses. Or la première surprise lorsque l’on entame le livre tient au caractère très grand public de l’ouvrage. L’anglais est basique, le cœur du texte atteint à peine les 200 pages. Les idées sont simples, exprimées dans des phrases courtes et souvent répétées ; les exemples choisis sont peu nombreux et reviennent eux aussi fréquemment. Il manque juste un encadré ou un résumé en gras à la fin de chaque chapitre pour transformer l’ouvrage en manuel du type Internet et la science pour les Nuls. Il ne s’agit donc pas d’un livre d’universitaire pour universitaire, il ne s’agit pas non plus d’un livre questionnant de manière approfondie son sujet. L’aspect académique se limite au nom et à l’adresse de l’éditeur. Ces remarques ne visent pas à déprécier l’ouvrage, il s’agit simplement de préciser ce qu’est l’ouvrage et le public visé.
L’ouvrage de Nielsen cherche à mettre en évidence ce qu’Internet modifie au niveau de la pratique scientifique considérée sous trois aspects complémentaires : les collaborations entre scientifiques, l’exploitation des données (brutes et documentaires), et enfin l’implication des citoyens dans le processus de découverte scientifique.
En ce qui concerne le premier aspect, Nielsen emploie l’expression de designed serenpidity afin de désigner la plus grande facilité qu’il y aurait aujourd’hui à trouver les micro-compétences nécessaires pour tel ou tel projet scientifique. Un seul exemple est utilisé pour illustrer cette notion, celui du Polymath Project : en 2009, Tim Gowers, lauréat de la médaille Fields, poste sur un blog un problème mathématique dont il ne trouve pas la solution. En quelques semaines, plus de 800 commentaires sont postés — mais seulement par 27 personnes — qui non seulement permettent de résoudre le problème posé mais donnent des pistes pour en résoudre d’autres. Si l’auteur utilise abondamment cet exemple de recherche favorisée par l’Internet, il souligne cependant que celui-ci correspond aux standards de la recherche académique classique ; l’objectif reste la publication d’articles scientifiques.
La mise en accès libre d’articles scientifiques et de données constitue le deuxième aspect abordé. L’exemple mobilisé tout au long de l’ouvrage est celui du projet Galaxy Zoo : des astronomes ont mis en ligne des milliers de photos de galaxies et toute personne volontaire pouvait classer celles-ci en fonction de leur forme. Cette mise à disposition du public a permis à la fois de mener à bien un fastidieux travail de classement et la découverte de formes inconnues ou négligées jusque-là. La mise en place des portails d’archives ouvertes est beaucoup plus rapidement évoquée via l’exemple d’arXiv. Rappelons que ce portail, créé en 1991 et dédié au dépôt des pre-print en physique, est le modèle explicite ou implicite des différents sites d’archives en ligne. Deux aspects diffèrent cependant : le dépôt est soumis à un contrôle (léger) des pairs — il s’agit en effet de vérifier l’insertion durable de l’auteur dans une communauté scientifique ; son succès massif a contraint les éditeurs à modifier leurs pratiques éditoriales. Ce n’est pas un hasard si les mathématiciens souhaitent développer un modèle similaire.
La thèse de Nielsen peut ainsi être résumée ainsi : Internet permet une révolution scientifique relative à l’implication croissante des non scientifiques dans la création de connaissances, et ceci que les scientifiques, présentés comme structurellement conservateurs, le veuillent ou non.
L’aspect le plus intéressant de l’ouvrage, mais malheureusement le moins approfondi, concerne les réactions de la communauté scientifique à ces processus décrits, de façon sans doute discutable, comme irréversibles. Quelques contre-exemples permettent à l’auteur de mettre en scène ces réactions. Le plus évident est celui de l’encyclopédie en ligne Wikipédia. Cette création collaborative et volontaire, de plus en plus exigeante, est devenue en quelques années l’un des socles de la connaissance contemporaine : c’est en tout cas ce que pense l’auteur de l’ouvrage, et l’auteur de ce compte-rendu. Il y a une grande hypocrisie aujourd’hui concernant l’usage de Wikipédia, devenu routinier pour les chercheur·e·s et enseignant·e·s en sciences sociales, et la critique non moins routinière des pratiques estudiantines de recherche d’informations sur le web (« Ils ne cherchent pas plus loin que Wikipédia »). L’absence de hiérarchie éditoriale est l’un des arguments les plus utilisés — « Il y a tout et n’importe quoi » — mais elle constitue précisément son intérêt, et, suivant les usages et les moments, il peut être utile tant de retrouver une définition claire de « fractale » que de connaître la liste des différents concerts donnés par les Ramones. Considérer que l’une des entrées a sa place dans une encyclopédie mais pas l’autre traduit une vision peut-être légèrement datée de ce que peut offrir une encyclopédie aujourd’hui.
Or, nous rappelle l’auteur, la création de Wikipedia s’est faite malgré la non-collaboration de la communauté scientifique, si ce n’est sa franche hostilité. Si l’hostilité s’explique aisément — comment une ressource citoyenne pourrait-elle prétendre concurrencer les encyclopédies écrites par les personnes autorisées ? —, la non-participation s’explique tout aussi aisément. Obtenir du crédit — du capital symbolique, suivant la terminologie bourdieusienne — auprès de pairs suppose d’abord et avant tout — dans le système anglophone décrit par l’auteur mais dans bien d’autres aussi — la publication d’articles dans des revues scientifiques. Ce crédit est nécessaire à toutes les étapes de la carrière, qu’il s’agisse d’obtenir un poste, fut-il précaire (contrat post-doctoral), un projet de recherche ou une prime d’excellence. Toute démarche à visibilité faible (écrire des lignes de code d’un logiciel open source) ou nulle (être contributeur à Wikipédia) n’a donc, au sens strict, aucun intérêt.
Là où l’auteur est le plus convaincant, c’est quand il montre que les évolutions se font lorsqu’elles sont congruentes aux logiques compétitives de l’activité scientifique contemporaine. Certaines données ont ainsi simplement été rendues accessibles parce que leur masse rendait cette mise à disposition possible : toute base de données suffisamment massive autorise un nombre quasi illimité de publications et il est donc superflu de chercher à en garder le monopole. Le succès d’arXiv, concernant notamment le nombre et la qualité des articles déposés, n’est quant à lui pas expliqué par l’auteur, or il obéit lui aussi à des logiques scientifiques et personnelles rationnelles : un article en accès libre a plus de chance d’être lu ou cité, ce qui ne peut qu’augmenter le capital symbolique du chercheur. Les physiciens ont très vite saisi l’enjeu et l’intérêt de cette démarche, ce que les chercheurs en sciences sociales n’ont sans doute pas encore complètement intégré dans leurs pratiques de « publiants ».
Un ouvrage facile à lire donc, et qui fournit quelques pistes de réflexion sur la (lente) modification des pratiques scientifiques causée par l’apparition d’Internet. La lecture des Non-actes de la non-conférence des humanités numériques (ThatCamp, Paris, 2012) est susceptible d’apporter de nombreux éclairages supplémentaires sur ces questions.