Wikipédia et Citizendium
L’ambiguïté éditoriale de Wikipédia est notoire. Non seulement la norme positiviste, privilégiant la présentation neutre des faits, la vérifiabilité et l’écriture consensuelle, n’est pas toujours respectée (manipulations, polémiques, etc.), mais, plus profondément, d’autres inspirations philosophiques (libérale, communautariste, relativiste) en contrarient structurellement la suprématie au sein du projet [1]. A cet égard, le débat concernant l’encyclopédie en ligne Citizendium n’a peut-être pas reçu toute l’attention qu’il mérite. Au regard du succès de Wikipédia, le projet rival lancé par Larry Sanger peut paraître au premier abord bien puéril et vain. Pourtant, au-delà de la querelle de personnes (même si Jimmy Wales l’a contesté, Larry Sanger est en fait co-fondateur de Wikipédia [2]), le problème qu’il pose (celui de la qualité), et les solutions qu’il avance (l’expertise), suscitent une réflexion légitime.
A bien des égards, le projet de Larry Sanger, comme il le souligne lui-même [3], diffère radicalement de celui de Jimmy Wales. Certes, dans les deux cas, il s’agit d’un wiki, autrement dit un site web édité collectivement, et dont on peut moduler les conditions de lecture et d’écriture de façon plus ou moins restrictive [4]. De plus, Citizendium utilise le même moteur wiki que wikipédia (mediawiki, open source) ; d’où leur ressemblance graphique. Mais, refusant l’« ouverture » incontrôlée du wiki en mode écriture [5], Larry Sanger a fait d’emblée le choix restrictif de la langue anglaise [6] et de la critique des pairs (peer-review) [7]. L’un des objectifs de Citizendium, sans qu’on puisse y voir le but principal, consiste à recycler Wikipédia en améliorant la production spontanée au moyen d’un léger contrôle scientifique a posteriori (un « gentle expert oversight »), et sans prétendre à une véritable direction scientifique [8]. La position éditoriale est en quelque sorte située à mi-chemin du « bazar » (construction spontanée et chaotique, dite aussi « bottom-up ») et de la « cathédrale » (construction dirigée et planifiée, dite « top-down ») [9]. En outre, elle engage une responsabilité juridique [10]. Il est également demandé aux contributeurs de signer leur publication, et leur identité est authentifiée. Avec ses 5.600 articles, son monolinguisme, et son goût de « déjà vu », Citizendium paraît dérisoire. Pourtant, la question se pose légitimement de savoir si cette position à distance n’est pas, à l’avenir, la plus prometteuse.
Citizendium retrouve en fait, par-delà les accidents de l’histoire, le rôle qui devait être celui de Nupedia, l’encyclopédie en ligne à laquelle un espace wiki (devenu par la suite Wikipédia) devait servir d’atelier préparatoire pour le gros œuvre, autrement dit de stockage d’appoint d’articles bruts destinés à être passés au tamis de l’expertise collégiale. L’atelier s’est émancipé pour devenir l’être semi-sauvage et bigarré que l’on connaît aujourd’hui. En apparence, cette nouvelle et surprenante autonomie a modifié radicalement le rapport entre les deux projets : Nupedia n’est-elle pas morte aussitôt née, irrémédiablement supplantée par la croissance exponentielle de Wikipédia ? En réalité, cette suprématie n’est pas aussi absolue et définitive qu’il pourrait d’abord le sembler. En effet, le projet scientifique de Nupedia – une ligne éditoriale forte, définie collectivement par un cercle d’experts – n’a pas disparu, puisqu’on le retrouve presque à l’identique dans Citizendium, moyennant un assouplissement du mode d’intervention des experts. Cet avatar prend cependant acte du caractère premier de Wikipédia, et se situe habilement en position seconde, réflexive. En fait, la véritable erreur de Larry Sanger est finalement d’avoir pour son projet la même ambition que Wikipédia, en lui donnant une envergure thématique universelle et en conservant l’idéal de neutralité [11] – car, comme on va le voir, c’est précisément sur ce terrain que Wikipédia (sa version 1.0) risque, une nouvelle fois, de lui faire de la concurrence. En revanche, l’idée d’un « remix » sous expertise, et suivant une ligne éditoriale assumée, d’un matériau premier relativement brut, est parfaitement légitime, et paraît même promise à un bel avenir.
Deux critères et un problème
Preuve de la pertinence de l’intuition de Larry Sanger, un débat s’est engagé progressivement au sein même de Wikipédia touchant la question de la sélection des articles les plus fiables, après authentification par des experts. Le « projet Wikipédia : version 1.0 » aboutira à moyen terme (à l’horizon 2010). La version française de Wikipédia 0.5 devrait voir le jour en 2008 avec un total de 2000 articles (elle comptait environ 800 articles en mars) [12]. En langue anglaise, la version 0.5 existe déjà depuis 2007 ; le lancement de la version 0.7 (30.000 articles) est prévu pour 2008. Cette question de la sélection des articles s’est notamment posée corrélativement au projet de publication de l’encyclopédie sur support CD-Rom ou papier, et elle a fait émerger l’idée d’une scission entre une version instable de l’encyclopédie et une version dite stabilisée.
Les deux critères de stabilisation retenus sont l’avancement des articles et leur importance ; ils sont complètement indépendants l’un de l’autre. L’importance d’un article peut être faible, moyenne, élevée ou maximum. Aussi appelée priorité, l’importance est considérée comme une notion relative à un projet particulier défini : l’importance d’un même article peut donc varier d’un projet (thématique) à l’autre. Mais si tel est le cas, pourquoi alors prendre soin de préciser que « l’article sur le chômage est plus important que celui sur Paris Hilton » [13] ? Il semble bien y avoir en l’occurrence quelque chose comme une contradiction entre une norme absolue mais implicite (le sérieux) et le principe fondamental de libéralité (la pertinence est relative aux projets, qui sont issus d’un découpage thématique).
Dans l’ordre de l’avancement, une échelle établit le dégradé suivant : ébauche, bon début, article de catégorie B, bon article, article de catégorie A, article de qualité (se rapprochant de « l’article parfait ») – on .trouve la même terminologie pour les « portails ». Les critères d’avancement n’échappent toutefois pas à l’ambiguïté éditoriale déjà mentionnée : outre la qualité de finition (orthographe, syntaxe, mise en page, illustrations) et le respect des licences juridiques des documents insérés, la « qualité encyclopédique » exige la clarté, l’exhaustivité, la neutralité, la pertinence, la citation des sources, etc. Notons que l’avancement est établi à l’issue d’un vote qui, lorsque l’article est de qualité (étoile jaune dans le coin supérieur droit), est signalé en bas de la page. L’article sur les « émeutes de Jérusalem de 1920 » a ainsi été élu au premier tour (treize voix pour) ; celui sur « Adam Smith » au second (par 12 voix pour un et une contre). Peuvent voter tous les wikipédiens ayant plus de 50 contributions, l’obtention d’un statut étant soumis à un quorum et à une majorité qualifiée (80% d’avis favorables pour le statut Article de Qualité).
Reste que cette évaluation interne au projet, si elle est un critère de stabilisation, ne constitue pas un critère de validation. C’est toute l’ambiguïté du rapport que Wikipédia entretient avec l’expertise qui se joue dans cette nuance. Dans son article très stimulant, Christian Vandendorpe, reste quelque peu hésitant sur cette question cruciale du « peer-review » [14]. Il renvoie aux « avertissements » de Wikipédia qui précisent bien l’absence de relecture formelle par les pairs mais cite ensuite avec faveur le cas d’un universitaire encourageant ses étudiants à écrire sur Wikipédia pour se former aux exigences du peer-review (notes 2 et 11). Aussi bien cette ambiguïté est-elle celle de Wikipédia elle-même. L’ambivalence est d’abord lexicale : la version anglaise parle bien de « peer-review », mais en précisant bien qu’il ne s’agit pas d’un peer-review universitaire. La version française parle quant à elle d’un « comité de lecture » informel auquel on peut faire appel (c’est facultatif) sur simple demande. Mais l’ambiguïté tient aussi au fait que l’encyclopédie externalise en quelque sorte le « peer-review », par son souci d’accréditer ses articles par des notes et des sources qui ont elles-mêmes fait l’objet d’une critique par les pairs. Ainsi, il est précisé qu’un article de catégorie A « devrait contenir une quantité suffisante de références externes écrites venant de préférence de la littérature papier (venant de publications avec comité de lecture quand c’est approprié) plutôt que de sites internet ». Enfin, l’évolution de Wikipédia vers l’expertise est franchement envisagée dans certaines pages anglaises, qui n’hésitent pas à utiliser le terme de « validation » – en prenant bien conscience de la rupture ainsi induite avec le fondement philosophique du projet [15].
Lignes de fuite
On le voit, si le remix (à la Citizendium) s’impose, c’est donc essentiellement en raison de deux limites de Wikipédia, qui sont à vrai dire inhérentes à tout projet encyclopédique, mais qui constituent en l’occurrence de véritables « lignes de fuite » numériques du projet de Jimmy Wales. La première est clinique ; la seconde est critique.
Au-delà de son sens médical, la « clinique » désigne le problème de la connaissance de l’individuel, de ses modalités, et notamment de son échelle (ou de son « grain », au sens photographique du terme). La nature virtuelle de l’encyclopédie la rend potentiellement universelle, puisque en expansion continue. Or l’exhaustivité est par définition impossible puisque le savoir est toujours débordé par les détails du réel. Soit par exemple la page « vélo » du Wikipédia français, admirablement détaillée : pourquoi n’y parle-t-on pas des courses cyclistes de la région de Quimper, en octobre 2002, en créant un lien avec une page consacrée au temps qu’il y faisait à ce moment là, à la couleur de l’herbe, à la forme des nuages, etc. ? Quiconque tentera l’expérience verra son article effacé au motif que ce type d’information est « trop spécifique » pour être vraiment « pertinent » [16]. C’est que tout savoir implique une sélection au sein de la multiplicité non ordonnée du monde ; de sorte que l’idée d’un cadastre exhaustif du savoir est aussi illusoire et saugrenue que la carte au 1/1e imaginée par Borges. Wikipédia s’arrête donc à un certain niveau de généralité, qu’un souci légitime de précision « clinique » peut souhaiter dépasser – par exemple si l’on est passionné de cyclisme breton.
La seconde ligne de fuite est critique. L’ambiguïté du « point de vue neutre » a été maintes fois soulignée [17], et tout particulièrement par les commentateurs de la galaxie « wiki » du Web [18]. On trouve ainsi sur Meatball Wiki une critique de la prétendue objectivité de cet idéal, des fausses symétries qu’il induit, et de l’apathie du consensus contraint (par élimination des controverses). En fait, une telle ligne éditoriale « neutre » n’est possible que lorsqu’il s’agit d’exposer un résumé du savoir existant, et non d’engager une recherche impliquant un risque critique [19] – cette dernière démarche tendant plutôt à susciter des points de vue multiples [20].
Remix
Ces deux difficultés rendent absolument inévitable la fragmentation de la plate-forme de savoir commun qu’est Wikipédia, et l’émanation, à partir d’elle, de « reprises » plus spécialisées et à la ligne éditoriale plus forte [21]. Ces micro-remix laissent entrevoir un tout autre espace que celui de l’encyclopédie existante, qui ne s’y substitue pas, mais en est fortement complémentaire : un univers de petits groupes cohérents de savants, spécialisés, s’opposant les uns aux autres dans un espace polémique consacrant le conflit des interprétations comme logique constitutive (et non résiduelle) du savoir critique [22]. Le « débat » entre points de vue différents, souhaité par Jimmy Wales et Larry Sanger, n’aura jamais vraiment lieu sur Wikipédia (pas même dans les pages « discussion »), ni sans doute à l’intérieur de ces petits groupes soudés par une « sensibilité » ou une problématique commune : il naîtra entre ces groupes, de leur opposition réciproque. Le dissensus, en particulier dans les sciences humaines, suppose en effet des choix éditoriaux critiques que la « neutralité » de Wikipédia rend impossible à assumer. Wikipédia ne devrait donc à l’avenir, outre sa fonction informative, que jouer le rôle de carte d’un espace polémique, simple relevé de positions, renvoyant à d’autres micro-wiki le soin de détailler les arguments critiques. Par ailleurs, chaque « remix » de Wikipédia risque d’augmenter la dépendance de chacun à l’égard de cette matrice, qui a dès lors toute chance de devenir une nouvelle koinè du savoir, plus que jamais un simple point de départ pour la formation du jugement [23].
On le voit, ce mouvement de désagrégation-recomposition n’est nullement contradictoire de la tendance à l’unification. Loin d’être une exception, cette symbiose correspond d’ailleurs à une évolution fondamentale du nouveau web, si mal nommé « web 2.0 » ou « web 3.0 », et dont la nature est en fait profondément socio-sémantique [24]. On ne l’observe pas seulement dans la production du savoir en ligne, mais aussi dans la recherche d’information, par exemple. L’ère du règne sans partage des grands moteurs de recherche généralistes semble en effet révolue. Apparaissent une multitude de moteurs spécialisés, plus ou moins « sociaux » (instruits par les utilisateurs qui notent les résultats pour éduquer la machine [25]), remixés par des méta-moteurs qui font eux aussi appel à un classement qui n’est plus seulement automatique (contrairement au « Page Rank » de Google [26]). A chaque fois, il s’agit d’augmenter la pertinence des résultats de la recherche en faisant de la machine un automate dirigé par un humain plutôt qu’un robot auto-suffisant : l’ordinateur « assiste » la recherche humaine [27]. Des micro-moteurs recyclent ainsi les résultats des moteurs généralistes, et des méta-moteurs (comme ari@ne ou ixquick) remixent les résultats des micro-moteurs et des moteurs standards… On pourrait mener exactement la même analyse concernant l’évolution des réseaux sociaux [28].
L’encyclopédie Wikipedia est donc en soi moins importante que les principes qu’elle illustre : travail collaboratif, facilité d’écriture, plasticité et évolutivité de l’objet produit. A n’en pas douter, ces principes trouveront de nouvelles incarnations le long des deux lignes de fuite critique et clinique évoquées. Ces applications seront d’autant plus nombreuses que le contenu du web sera rendu « mobile » (techniquement [29] et juridiquement), apte à rentrer, d’une manière indéfiniment déformable, dans la configuration de nouveaux « organes de l’âme ». Si l’on ajoute que l’énorme proportion de nullité des productions virtuelles spontanées n’est pas un argument [30], on comprend l’originalité de la nouvelle figure de l’intellectuel qui se dessine sous nos yeux : tout à la fois critique et engagé (Sartre), spécifique (Foucault), collectif (Bourdieu) et virtuel – un véritable DJ du savoir numérique.