Christophe Le Bot

Pratique de la conception numérique

Le Web 2.0 atteint ses limites

Un contenu réapproprié

Sur son blog Ecosphère, Emmanuel Parody nous alerte sur une des limites du Web 2.0 : les services en ligne autogérés. Prenant l’exemple de Digg, il montre que l’appropriation de la gestion du contenu par des petits groupes d’utilisateurs très actifs entraîne un détournement du service. Des dérives qui signeront inévitablement un retour vers le contrôle a priori du contenu :

J’en discutais avec Emmanuel Davidenkoff […]. Son choix, très motivé, consiste à imposer la modération a priori des commentaires et des contributions au nom de la cohérence éditoriale et de la qualité. Du coup on perd sans doute en spontanéité et on doit aussi supporter le coût de l’opération. Pourquoi ne pas faire le pari de laisser ses contributeurs s’autogérer ? Parce que, selon lui, derrière la communauté se crée un noyau dur qui tend à développer sa propre culture, ses codes, s’approprie l’espace au point d’exclure rapidement les nouveaux arrivants. Bref en apparence le site gagne son pari en fidélisant un noyau dur mais passe à côté de sa mission fédératrice. (extrait de l’article Digg : 1$ par vote, c’est cher payé sur Ecosphère)

Un contenu inapproprié

Cet exemple me fait penser aux déboires de USA Today qui a joué à 100% la carte du Web 2.0 pour la dernière version de son site web… sans avoir mesuré préalablement le désintérêt de 92% des lecteurs pour ses services participatifs. Si l’origine du problème vient d’une mauvaise conception du projet (overdose de « buzz » ?), il montre également que les principes du Web 2.0 ne s’appliquent pas à tous les projets web.

Un contenu inexploité

Les réseaux sociaux très permissifs du Web 2.0 ne sont pas les seuls à montrer leurs limites. Nova Spivack, le président de Radar Networks, montre, schémas à l’appui, l’inadéquation des mots-clés (les fameux « tags ») pour qualifier l’information à mesure que le web grossit :

La recherche par mots-clefs ne comprend pas le sens de l’information. La recherche en langage naturel est un peu meilleure pour comprendre le sens de l’information – mais elle ne s’intéresse pas plus à la structure de l’information. Pour vraiment améliorer la productivité de la recherche sur le web, nous aurons besoin de nouvelles approches qui structureront les données – c’est-à-dire qui seront capable de chercher dans et entre des bases de données structurées et pas seulement sur du texte sans structure ou de l’HTML semi-structuré. (extrait de l’article Beyond Keyword (and Natural Language) Search, traduit par InternetActu)

Verra-t-on un retour vers une classification plus classique (arbre, hiérarchie, facettes, graphes…) ? Sans nul doute, à condition de créer des interfaces suffisamment simples et rapides pour éviter de transformer chaque internaute en documentaliste. Le web sémantique dont on parle depuis que le web existe va devenir incontournable.

Un contenu réexploité

Je terminerai par ce qui me semble être la principale limite du Web 2.0 : la propriété intellectuelle. Il ne faut pas oublier que le monde réel est entièrement fondé sur la propriété : biens, marques, modèles, brevets, etc. Sauf à créer un autre monde, il faudra bien que le web se plie à cette règle du jeu séculaire. Les conflits et les enjeux en croissance constante le prouvent : purge de YouTube, signatures d’accords avec les auteurs, presse belge contre Google. Or le Web 2.0 doit notamment son succès au pillage des contenus. Que restera-t-il des réseaux sociaux une fois les procédures judiciaires abouties ? Comment garantir la stabilité du marché de la publicité en ligne sur des contenus instables ? Comment les internautes vivront ce douloureux passage d’un web anarchique et prolifique à un web raisonné et respectueux ? Ou bien, se dirige-t-on vers un web totalement libre, comme le voyait son créateur, Tim Berners-Lee ? Devra-t-on rendre l’économie classique « open source » ? Nous n’en sommes encore qu’à la préhistoire de l’internet…

Aucun commentaire

* Informations obligatoires