Internet et ses colleurs d’affiches



Cafeine Le Mag
Jeudi 3 Octobre 2013

Le web, qui n’est pourtant au départ qu’un contenant, a totalement bouleversé la nature des contenus qu’il transporte, mais aussi leurs modes d’accès. On parle du monde entier à portée de clic, mais pour atteindre cet incommensurable lieu de stockage de la mémoire de l’humanité nous passons principalement… par un seul point d’accès. Les moteurs de recherche, Google en tête avec ses 94% de parts de marché, jouent le rôle d’un panneau d’affichage unique, où les impératifs commerciaux et les techniques de référencement ont plus de poids dans la hiérarchisation des résultats que la pertinence des informations.


Internet et ses colleurs d’affiches

Le web, nouvel espace des savoirs

En novembre dernier, Universalis a annoncé que sa mythique encyclopédie ne paraîtrait plus sous format papier. Elle rejoint ainsi la Britannica, Larousse ou encore (feu) le Quid qui, avant elle, ont fait le choix de passer au tout numérique. Ce phénomène est révélateur d’une tendance profonde : désormais, l’information, de la plus anecdotique à la plus scientifique, trouve naturellement sa place en ligne, et plus forcément dans les ouvrages papier. Le web est devenu en quelques années le lieu de stockage principal du savoir humain : un océan de données, où, d’après l’agence IDC, 5 exaoctets sont générés tous les 2 jours. Et pour y accéder, la très grande majorité des internautes utiliseront un outil unique : le moteur de recherche.

Le moteur de recherche, porte d’accès privilégiée

Les moteurs de recherche absorbent en effet une partie considérable du trafic internet. Une récente étude Médiamétrie annonce qu’ : « au mois d'avril 2013, 45% des visites des sites Internet mesurés par eStat’Web sont issues d'un moteur de recherche. Parmi ces accès, plus de 9 sur 10 proviennent de Google (94%) ». En clair, près d’un visiteur sur deux qui consulte un site vient de Google. Quand on sait que les trois premiers résultats sur Google vont générer 68% des clics (dont 48% pour la première position) (1), on peut légitimement s’interroger sur la façon dont sont hiérarchisés ces résultats… Et en l’occurrence, ils le sont par des impératifs commerciaux (Google est une entreprise, dont le but est de générer du profit), et par les techniques de référencement.

La loi du référencement

Comment donc, concrètement, apparaître sur cette précieuse première page ? Google se rémunère principalement par la publicité. Les premiers liens qui apparaissent dans ses résultats sont des liens commerciaux, achetés auprès d’elle par les entreprises concernées. C’est ce que l’on appelle le référencement payant. Les liens suivants, issus du référencement dit naturel, proviennent du fameux – et mystérieux – algorithme de recherche Google, qui analyse la pertinence des pages demandées en fonction d’un certain nombre de critères : quantité et position des mots-clés recherchés, nombre de liens entrants et sortants, popularité du site… Autant d’attributs sur lesquels travaillent les professionnels du référencement pour améliorer la visibilité de leur propre site web, avec comme objectif de coller leur « affiche » par-dessus celle des autres. Les  idéaux d’impartialité, de pertinence et de sélection éclairée de l’information sont donc tout à fait étrangers à ce système, qui rend la hiérarchisation des résultats assez peu fiable scientifiquement parlant. Pour Patrick Le Hyaric, la « surinformation chasse l’information et sa hiérarchisation ». Et contrairement à ce que l’on a tendance à faire, il ne faudrait pas trop compter sur les moteurs de recherche pour pallier le problème.

Plus que jamais, éditeurs et autres curateurs ont un rôle à jouer

Dans ce contexte de surcharge informationnelle, il est donc plus que souhaitable de voir émerger des acteurs indépendants, capables de sélectionner les contenus pertinents en dehors de toute autre préoccupation. On a vu apparaître vers la fin des années 2000 la notion de curation, qui désigne selon Wikipédia « une pratique qui consiste à sélectionner, éditer et partager les contenus les plus pertinents du Web pour une requête ou un sujet donné ». Cette sélection, manuelle, dont l’auteur, un expert, est clairement identifiable, s’impose comme une réponse efficace  à l’infobésité. Car rétablir un intermédiaire humain et désintéressé des résultats commerciaux des contenus qu’il diffuse, réintègre dans le processus des qualités comme l’esprit de synthèse, critique ou d’analyse. Marc Rougier, le fondateur de Scoop-it, un outil qui permet de sélectionner et de présenter des contenus web sur une plate-forme dédiée, explique que l’un des grands enjeux de la curation est « dans la recherche et la découverte de contenu: la curation opère de fait une hiérarchisation d’Internet, permettant aux internautes de trouver du sens, d’extraire plus facilement la qualité de la quantité. Cet enjeu est également de taille car, si le pouvoir du curateur augmente, alors le poids relatif des algorithmes de recherche va s’amoindrir ». Mais si le terme de curation est récent, les compétences qu’il consacre ne le sont pas : les professionnels de la sélection de l’information existaient déjà avant internet, et existent toujours avec lui… il s’agit, simplement, des éditeurs.

Leur savoir-faire est en effet précieux sur ce support, qui, comme les livres « traditionnels », est destiné à recevoir du contenu. Arnaud Nourry, le PDG d’Hachette Livre, est convaincu que le rôle de l’éditeur reste identique avec le numérique : «  sélectionner, dialoguer avec les auteurs, se porter garant de l’impartialité et de la qualité des contenus : telles sont depuis toujours les responsabilités qui incombent à Hachette, comme aux autres éditeurs.  A l’ère de l’infobésité, elles conservent plus que jamais leur sens, et leur utilité ». La version en ligne de l’encyclopédie Larousse offre un exemple intéressant d’expertise éditoriale exercée sur un contenu web.  Elle repose sur un modèle semi-collaboratif : les articles des internautes sont vérifiés, et d’autres proviennent directement de l’éditeur. L’objectif de Larousse est ici de valoriser son expertise en matière de sélection et de vérification des données, tout en proposant un contenu en ligne, et gratuit.

Rendre plus visibles les professionnels de la sélection

Internet est un réservoir de contenus immense et dont la nature est inédite : pour la première fois dans l’histoire de l’humanité on accède potentiellement depuis tout point connecté à une quantité de données pas même mesurable. Mais cette « bibliothèque virtuelle accessible à tous » (Jean-François Barbier-Bouvet), à laquelle ont rêvé beaucoup de penseurs, est trop facilement manipulable : la mainmise des moteurs de recherche et l’importance qu’ont prise les techniques de référencement limitent et orientent notre accès à l’information. Il est donc essentiel de préserver des « filtres» capables de sélectionner et de mettre à disposition des contenus de qualité, dont le choix et la hiérarchisation ne dépendent pas des politiques commerciales de quelques moteurs (pour ne pas dire un seul…) ou de techniques de référencement plus ou moins opaques. Le meilleur moyen pour cela ? Les rendre plus visibles, et informer, qu’en marge de Google, ils existent aussi !

(1) Selon une étude Mindshare publiée en 2012 http://www.mindshare.co.uk/news/articles/mindshare-launch-new-seo-research.aspx , dont les ordres d’idée sont régulièrement confirmés par d’autres instituts
 

Notez