Christophe Le Bot

  • Navigation rapide
Pratique de la conception numérique

Derniers commentaires

  • Quand Google Maps sait se rendre utile
    • Christophe | Thanks Carly! I have modified the broken link.
    • carly | Hi Christophe There is a broken link on this page, I can send you the replacement link, im unable to find an email address for you. Ive provided mine for you to contact me. Carly
  • Test d’interface : paiement d’amendes en ligne
    • Herbaux Jean-Marie | J’ai été coupé a 15h56. Je ne parviens pas confirmer mon payement par C B via le payement.en ligne par Internet. J’entre bien les quatre groupes de chiffres et les deux...
    • Rovellotti Olivier | Ce site est un véritable cauchemar UX Excellent article http://www.natural-solutions.e u/
  • Agence web ou SSII : que choisir ?
    • Rovellotti Olivier | La limite n’est plus aussi claire qu’avant effectivement et les différence de prix sont du l’ordre du *10. Généralement les équipes dans les agences sont plus...
 

User Generated Applications : utopie ou réalité ?

Même si le web 2.0 n’a pas inventé les réseaux sociaux, il a permis de généraliser la notion de User Generated Content, c’est-à-dire la création et la gestion du contenu par les utilisateurs. Tous les services « à la sauce web 2.0 » fonctionnent sur ce principe (à commencer par les blogs).

Et après ? Va t-on s’arrêter en si bon chemin ? Que peut-on apporter de plus à l’utilisateur ? Christian Fauré nous en donne la réponse : les User Generated Applications. A priori, son billet peut semer le doute (il date du 1er avril), et pourtant il ne manque ni de pertinence, ni de justesse.

Une réalité, soutenue par la demande des particuliers

« Les User Generated Applications ? Nous n’y sommes pas encore ! » Détrompez-vous : elles sont déjà là !

Un des meilleurs exemples est sans doute Yahoo! Pipes. Ce service permet de créer son propre agrégateur à partir de flux d’informations choisis, filtrés et manipulés. Pour cela, une interface graphique simple mais puissante permet de définir les règles de sélection et de traitements des flux.

Yahoo! Pipes - Accueil
Page d’accueil Yahoo! Pipes.
Yahoo! Pipes - Editor
Yahoo! Pipes Editor.

Ning est un service tout aussi intéressant. Il se définit comme « un service pour créer vos propres réseaux sociaux ». Certains y verront une plate-forme de blogs améliorée, alors qu’il s’agit bien de concevoir sa propre application de diffusion et de partage de contenu. Du User Generated Content servi par une User Generated Application, en quelque sorte.

Ning - Acceuil
Ning, page d’accueil.
Ning - IHM
Ning, interface de création.

Pour achever de vous convaincre, il me reste à citer Coghead. Là, nous touchons à la personnalisation ultime pour un résultat qui sort totalement des services web classiques. Coghead crée des applications complexes, à partir de données structurées par l’utilisateur, via une interface graphique.

Coghead
Interface de Coghead.

La difficulté d’une implémentation en entreprise

S’il est facile de faire du « cousu main » pour les particuliers, l’exercice est tout autre en entreprise. Christian Fauré nous dresse le tableau idyllique :

Personne n’aurait vraiment la même application, la notion même d’application deviendrait floue. Chacun créerait aisément ses propres services, au besoin en utilisant une librairie de composants génériques.

[…]

Le métier change ? Hop, je m’adapte immédiatement en modifiant mes services paramétrés. Pas besoin d’attendre le déploiement de la nouvelle version d’un progiciel.

[…]

Ce que cela change :
– plus de notion de processus métiers, ni de re-engineering : chacun outille son processus
– le management du SI se concentre sur l’architecture de l’information, l’interopérabilité et la sémantique des données.
– plus de MOE et de MOA, on arrête de travailler comme si l’on construisait un bâtiment (ouf!)

Et sa contrepartie :

Cela suppose une plus grande sensibilité et maturité des salariés dans la maîtrise de l’informatique. Cette sensibilité et cette éducation ne peut être assumée par l’entreprise seule. L’école elle-même ne pourra assumer ce rôle, ou en tout cas pas tels que les systèmes éducatifs sont actuellement conçus.

[…]

Le malaise des décideurs : ceux dont la fonction consiste à demander des rapports : bye, bye !

[…]

Il faut une population de salariés compétents pour être autonomes.

Les applications générées par les salariés sont-elles utopiques ou une réalité à court terme ? J’opte pour la seconde réponse, à condition de maîtriser la sémantique et l’interopérabilité des informations de l’entreprise. Tout l’enjeu (et les risques !) sont là. Le but est de qualifier le moindre fragment de contenu pour l’exploiter dans des conditions inconnues lors de sa création. Utopique ? Encore une fois, non. Encore une fois, les exemples existent.

Prenons Freebase. Ce projet a pour ambition d’être une base de données géante et universelle, alimentée par ses visiteurs. A priori, rien ne la démarque d’autres services web, sauf qu’ici, chaque information est qualifiée, « sémantisée ». Là où Google tente de comprendre le sens du contenu par des algorithmes évolués, Freebase découpe chaque information en fragments qui ont du sens. Là où Google vous donne une probabilité qu’une page web réponde à votre question, Freebase apportera la réponse exacte, fusse-t-elle unique !

Freebase
Site web de Freebase.

Avec l’explosion des données qualifiées et l’inévitable indisgestion qui s’en suivra, l’utilisateur en entreprise devra s’appuyer sur des outils de recherche, de sélection et de visualisation des données, avant de construire sa propre application. A ce titre, je citerai l’étonnant projet Many Eyes d’IBM.

Projet Many Eyes - IBM
Projet Many Eyes d’IBM.

Un séisme pour les acteurs informatiques ?

Je n’entrerai pas dans les détails d’un sujet connexe et sensible (cet article est suffisamment long, je pense…), celui de la génération automatique de codes qui touche directement les professionnels de l’informatique. On reste dans la même logique : accélérer la mise à disposition d’outils informatiques. Avec des conséquences importantes sur l’activité de certaines entreprises.

Les agences web sont les premières touchées. Elles sont souvent gérées par des créatifs qui ont une vision artisanale du développement web. Je n’ai rien contre les artisans talentueux, mais face à un serveur qui crée une application web en 2 minutes à partir d’un fichier UML 2, après avoir effectué des tests unitaires pour rendre l’application « 100% bug free », il devient très difficile de lutter, sauf à utiliser les mêmes méthodes de production et à se démarquer par une réelle créativité (là où l’homme aura toujours sa place).

Ensuite, à qui le tour ? Aux SSII qui facturent le déploiement et la maintenance de solutions applicatives ? Aux éditeurs de logiciels qui vendent des licences poste à poste ?

Pour ma part, je vois plusieurs évolutions importantes :

  • Les projets informatiques se focaliseront sur l’interopérabilité des systèmes d’information (l’open source les y aidera sûrement).
  • La sémantique va jouer un rôle fondamental dans la manipulation et la transformation de l’information.
  • Le développement informatique se concentrera sur la capacité de l’outil à s’adapter, à se personnaliser et à s’autogénérer.
  • La conception centrée utilisateur sera la seule conception possible.
  • Les managers devront intégrer les contraintes liées à l’autonomie des utilisateurs et à la plasticité de leur outil de production.
  • Les éditeurs de logiciels se transformeront en fournisseurs de services (la bataille Google / Microsoft est un bon exemple) ou en spécialistes métiers (comme Adobe, par exemple).
  • Les entreprises de services informatiques devront inventer le « support utilisateur individuel ».
  • La création prendra une place prépondérante et sera enfin facturée, puisqu’elle seule ne pourra être automatisée (enfin, pas à court terme…).
  • Nous utiliserons enfin les outils que nous imaginerons.

Du grain à moudre

Deux articles (en anglais) de CNN Money qui montrent que le sujet est d’actualité :

Pour finir, une excellente vidéo de Nigel Parker (48 minutes, tout de même !) qui reprend ce qui fait le web d’aujourd’hui et ce que seront les services applicatifs de demain :

Le Web 2.0 atteint ses limites

Un contenu réapproprié

Sur son blog Ecosphère, Emmanuel Parody nous alerte sur une des limites du Web 2.0 : les services en ligne autogérés. Prenant l’exemple de Digg, il montre que l’appropriation de la gestion du contenu par des petits groupes d’utilisateurs très actifs entraîne un détournement du service. Des dérives qui signeront inévitablement un retour vers le contrôle a priori du contenu :

J’en discutais avec Emmanuel Davidenkoff […]. Son choix, très motivé, consiste à imposer la modération a priori des commentaires et des contributions au nom de la cohérence éditoriale et de la qualité. Du coup on perd sans doute en spontanéité et on doit aussi supporter le coût de l’opération. Pourquoi ne pas faire le pari de laisser ses contributeurs s’autogérer ? Parce que, selon lui, derrière la communauté se crée un noyau dur qui tend à développer sa propre culture, ses codes, s’approprie l’espace au point d’exclure rapidement les nouveaux arrivants. Bref en apparence le site gagne son pari en fidélisant un noyau dur mais passe à côté de sa mission fédératrice. (extrait de l’article Digg : 1$ par vote, c’est cher payé sur Ecosphère)

Un contenu inapproprié

Cet exemple me fait penser aux déboires de USA Today qui a joué à 100% la carte du Web 2.0 pour la dernière version de son site web… sans avoir mesuré préalablement le désintérêt de 92% des lecteurs pour ses services participatifs. Si l’origine du problème vient d’une mauvaise conception du projet (overdose de « buzz » ?), il montre également que les principes du Web 2.0 ne s’appliquent pas à tous les projets web.

Un contenu inexploité

Les réseaux sociaux très permissifs du Web 2.0 ne sont pas les seuls à montrer leurs limites. Nova Spivack, le président de Radar Networks, montre, schémas à l’appui, l’inadéquation des mots-clés (les fameux « tags ») pour qualifier l’information à mesure que le web grossit :

La recherche par mots-clefs ne comprend pas le sens de l’information. La recherche en langage naturel est un peu meilleure pour comprendre le sens de l’information – mais elle ne s’intéresse pas plus à la structure de l’information. Pour vraiment améliorer la productivité de la recherche sur le web, nous aurons besoin de nouvelles approches qui structureront les données – c’est-à-dire qui seront capable de chercher dans et entre des bases de données structurées et pas seulement sur du texte sans structure ou de l’HTML semi-structuré. (extrait de l’article Beyond Keyword (and Natural Language) Search, traduit par InternetActu)

Verra-t-on un retour vers une classification plus classique (arbre, hiérarchie, facettes, graphes…) ? Sans nul doute, à condition de créer des interfaces suffisamment simples et rapides pour éviter de transformer chaque internaute en documentaliste. Le web sémantique dont on parle depuis que le web existe va devenir incontournable.

Un contenu réexploité

Je terminerai par ce qui me semble être la principale limite du Web 2.0 : la propriété intellectuelle. Il ne faut pas oublier que le monde réel est entièrement fondé sur la propriété : biens, marques, modèles, brevets, etc. Sauf à créer un autre monde, il faudra bien que le web se plie à cette règle du jeu séculaire. Les conflits et les enjeux en croissance constante le prouvent : purge de YouTube, signatures d’accords avec les auteurs, presse belge contre Google. Or le Web 2.0 doit notamment son succès au pillage des contenus. Que restera-t-il des réseaux sociaux une fois les procédures judiciaires abouties ? Comment garantir la stabilité du marché de la publicité en ligne sur des contenus instables ? Comment les internautes vivront ce douloureux passage d’un web anarchique et prolifique à un web raisonné et respectueux ? Ou bien, se dirige-t-on vers un web totalement libre, comme le voyait son créateur, Tim Berners-Lee ? Devra-t-on rendre l’économie classique « open source » ? Nous n’en sommes encore qu’à la préhistoire de l’internet…

Comment éviter un double référencement

Un internaute est un être précieux… mais volatile. Il suffit d’un détail pour que votre site passe aux oubliettes.

Dans la « top list » des petits trucs qui agacent : l’obligation d’entrer « www. » dans la barre d’adresse du navigateur pour accéder à un site. Quatre caractères qui n’apportent aucune information particulière, sauf celle de définir un site web (ce que l’on sait déjà puisqu’on utilise le protocole HTTP). Heureusement, la plupart des sites propose un accès via leur domaine seul (exemple.com) ou avec l’adresse complète (www.exemple.com).

Cependant, aux yeux des moteurs d’indexation, il s’agit de deux sites différents. Votre contenu sera donc diluer dans les index des moteurs de recherche. De même, les liens vers votre site ou son clone diminueront le « poids » de vos pages web (le fameux « page rank » de Google, par exemple).

Pour conserver l’avantage d’une adresse courte et éviter le double référencement, il suffit de placer ces lignes dans le fichier .htaccess situé à la racine du site :

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.exemple\.com [NC]
RewriteRule (.*) http://www.exemple.com/$1 [QSA,R=301,L]

Cette règle de réécriture permettra au serveur de rediriger les visiteurs (et les moteurs d’indexation) vers l’adresse complète (www.exemple.com).

Pourquoi ne pas en profiter pour faire l’inverse, à savoir simplifier l’adresse en redirigeant vers le domaine seul ? Parce que la norme impose de garder « www » comme adresse principale d’un site web. Internet et les noms de domaines existaient bien avant le web (les premiers domaines en « .com » ont été achetés en 1985, cinq ans avant la naissance du web) et servent à d’autres services internet (messagerie, transferts de fichiers, surveillance réseau).

Google, Yahoo et Microsoft à l’unisson autour de Sitemap

Sitemap

Google, Yahoo et Microsoft, frères ennemis ? Pas toujours ! Ils savent aussi travailler ensemble quand cela favorise leurs intérêts respectifs. Un exemple : le protocole Sitemap, initié par Google, fait maintenant l’objet d’un site dédié (sitemaps.org) et d’une licence Creative Commons pour favoriser son adoption. Autant dire de suite que Sitemap sera LE standard d’indexation du contenu des sites web.

Avec Sitemap, le webmaster reprend la main sur l’indexation de son site : il peut en décrire la hiérarchie, favoriser l’importance d’une page ou indiquer la régularité des mises à jour. Ces données sont stockées dans un ou plusieurs fichiers XML soumis directement aux moteurs d’indexation.

C’est toujours mieux que le simple fichier robots.txt, mais ce n’est pas encore la panacée. Sitemap est parfait quand la structure du site évolue peu. Par contre, lorsqu’à l’occasion d’une refonte, des contenus changent de rubriques, sont fusionnés ou éclatés, changent de domaine, Sitemap ne sait pas décrire ces changements. Certes, les codes de statut HTTP peuvent y remédier, notamment les 301, 302, 303 et 307, mais ils sont souvent mal exploités (quand ils le sont…) par les systèmes de gestion de contenu et sont plutôt destinés aux navigateurs web qu’aux moteurs d’indexation.

La bonne idée serait donc d’ajouter quelques balises dans les fichiers XML Sitemap pour indiquer les changements de structuration du contenu (suppression, déplacement, fusion, éclatement, pages liées, etc.). On pourrait alors se passer du fichiers robots.txt et de quelques balises META dans le code HTML de chaque page. On pourrait même imaginer se passer des codes de statut HTTP si le navigateur web savait exploiter les fichiers XML Sitemap. Il me reste à contacter les frères ennemis pour mettre tout cela en place !

Site web : les bonnes pratiques

Même si vous avez dans l’idée de créer LE site web qui va révolutionner les usages d’internet, il n’est pas inutile de rappeler (ou de découvrir…) les bonnes pratiques qui viennent de l’expérience et de l’expérimentation. C’est ce que vous propose la société Temesis avec son projet Opquast.

Quand vous maîtriserez les 153 fiches Opquast, vous aurez sûrement plus de chances de valoriser votre projet web !