Christophe Le Bot

  • Navigation rapide
Pratique de la conception numérique

Derniers commentaires

  • Quand Google Maps sait se rendre utile
    • Christophe | Thanks Carly! I have modified the broken link.
    • carly | Hi Christophe There is a broken link on this page, I can send you the replacement link, im unable to find an email address for you. Ive provided mine for you to contact me. Carly
  • Test d’interface : paiement d’amendes en ligne
    • Herbaux Jean-Marie | J’ai été coupé a 15h56. Je ne parviens pas confirmer mon payement par C B via le payement.en ligne par Internet. J’entre bien les quatre groupes de chiffres et les deux...
    • Rovellotti Olivier | Ce site est un véritable cauchemar UX Excellent article http://www.natural-solutions.e u/
  • Agence web ou SSII : que choisir ?
    • Rovellotti Olivier | La limite n’est plus aussi claire qu’avant effectivement et les différence de prix sont du l’ordre du *10. Généralement les équipes dans les agences sont plus...
 

Archives de la catégorie
Marketing

Le “Mobile web 2.0″, un marché encore immature

La pandémie « web 2.0 » gagne du terrain et touche maintenant le marché de la téléphonie mobile. Ce n’est pas un scoop puisque les projets fleurissent partout, y compris en France… et surtout à Toulouse où j’aide quelques « groupes de travail » à développer des services mobiles qui vont, bien sûr, changer le monde. Mais promis, je ne dirais rien !

Le web 2.0 pour mobiles vous rend euphorique ? Voici l’heure de la douche froide. Dans le rôle du rabat-joie, un petit article de MocoNews a le mérite de décrire objectivement la situation : le Mobile web 2.0 est trop ambitieux, nous devrions l’appeler Mobile 0.5.

Un avis que je partage totalement, car il ne rejette pas la révolution à venir des applications mobiles mais insiste seulement sur l’immaturité du marché, des interfaces et des modèles économiques :

If there is a wireless revolution under way, then it’s certainly a slow one. “We’re really at mobile Web 0.5, to be completely honest,” Sumit Agarwal, a product manager in Google’s mobile division, was quoted as saying.

[…]

Mobile web 2.0 will happen – in good time.

La voie est pourtant tracée :

The real thing about Web 2.0 is people introducing applications to each other. […] True viral applications, something sent from one person to another, will absolutely be a big part of mobile.

J’en connais un qui va être ravi de voir ses décisions stratégiques confirmées de la sorte…

“Web 2.0″, Ajax, interfaces riches et prospective

J’ai toujours détesté le terme « web 2.0 ». Il ne signifie rien. Il englobe ce que chacun veut y mettre et ne sert qu’à convaincre les clients crédules de la nécessité d’une refonte de leurs services en ligne.

Les acteurs du web n’ont pas attendu la vague du « web 2.0 » (à quand le ressac ?) pour créer des communautés ou des applications en ligne (on remarquera au passage que les web applications sont devenues des SaaS, softwares as a service, c’est plus « tendance »).

Et que dire du contenu généré par les utilisateurs (le fameux User Generated Content si cher au « web 2.0 ») ? N’est-ce pas la fonction première du web que de permettre la diffusion rapide, massive et économique de contenu ? Depuis 1990 (et la première page web), les utilisateurs mettent en ligne du contenu.

J’ai eu la chance de concevoir des services « à la sauce web 2.0 » dès 1998 : sites communautaires, applications en ligne, outils de travail collaboratif… Et je n’étais pas le seul ! Mais il faut bien avouer que deux choses ont freiné leur expansion : les connexions bas débit et l’inviolabilité de la sphère privée.

Tout le monde peut comprendre qu’avec un modem RTC qui charge une page web en 55 secondes, il est impossible d’avoir des services tels que YouTube. Quant à la sphère privée, il a fallu une bonne dizaine d’années pour que l’internaute s’habitue à publier (donc rendre public) quelques bribes de sa vie personnelle (avec les excès que l’on connait aujourd’hui…).

Finalement, pour moi, le « web 2.0 », c’est :

  • un coup marketing de maître !
  • la généralisation du haut débit
  • l’ouverture de la sphère privée

C’est tout. Enfin presque… J’ai oublié le seul point réellement nouveau dans le « web 2.0 » : Ajax (Asynchronous JavaScript and XML), rendu possible grâce à l’implémentation de XMLHttpRequest dans Internet Explorer (merci Microsoft !).

Ajax change tout, à commencer par la notion de page web. Comme le fait très souvent remarquer Frédéric Cavazza, peut-on encore utiliser le terme de page web, alors que le contenu et la forme évoluent par petites touches au sein d’une seule page ? Netvibes en est un bon exemple.

Nous en sommes à l’ère des single page applications (SPA). Ses effets révolutionnent notre manière de voir et de concevoir le web. Les ergonomes sont obligés de revoir toutes leurs préconisations. Ajax change nos méthodes de production, les éditeurs de code HTML (comme Dreamweaver) ont disparu et font place à des environnements de développement lourd. Ajax bouscule les habitudes chèrement acquises des internautes (on ne touche plus au bouton « Page précédente » du navigateur pourtant si pratique !). Ajax perturbe l’économie du web en faussant la mesure d’audience.

Ajax finira peut-être par tuer le web, en imitant toujours mieux le comportement des applications classiques. Il rendra inutile le navigateur web et favorisera l’émergence des RIA (Rich Internet Applications), puis des RDA (Rich Desktop Applications). Finalement, Ajax entraînera un retour aux sources de l’informatique grand public : un système d’exploitation, des applications locales, des interfaces riches.

A la différence que tous leurs éléments intrinsèques seront connectés à internet et dépendront de lui : WebOS, RDA, Widgets, SaaS. Le web sera, quelques temps encore, un protocole d’échanges de données entre machines, avant de disparaître…

Quand faire intervenir le designer ?

De l’article consacré aux difficultés de Dell, diffusé par Le Monde (Fragilisé, Dell se cherche un nouveau modèle, 3 mai 2007), je n’ai retenu qu’une phrase. Non pas que les objectifs de Michael Dell, de retour dans la galère le navire ne m’intéressent pas, mais parce qu’il y est question de design :

Des designers ont été recrutés et désormais un produit sera dessiné avant d’être conçu. Avant c’était le contraire.

Cet aveu est étonnant à double-titre :

  • Il me semblait que les machines Dell étaient réputées pour leur conception aboutie (fiabilité, silence, manipulation, installation, service clients). J’ai dû louper un épisode…
  • Je croyais que les grandes entreprises, américaines de surcroît, avaient compris depuis longtemps le rôle du designer. J’ai rêvé trop vite…

La situation

Comment en est-on arrivé là ? Le problème vient de l’incompréhension du mot design et du rôle du designer. Le design est trop souvent perçu comme synonyme exclusif d’apparence (ou d’aspect, de forme, d’esthétique, si vous préférez). D’où la tentation de limiter le coût du design à un peu de saupoudrage visuel, juste avant la mise en production.

Les responsables

A qui la faute ?

  • Aux designers, certainement, qui n’ont pas su expliquer leur métier, il est vrai très changeant (je suis bien placé pour le savoir, puisque j’ai géré et animé pendant 8 ans une association de promotion du design).
  • Aux managers parce qu’ils ne sont pas sensibilisés, ni formés aux atouts du design (le design devrait faire partie du programme MBA !).
  • Aux institutions et autres organismes de développement économique parce qu’ils n’ont pas les outils pour mesurer et expliquer l’efficacité du design (quoique sur ce point, les évolutions sont perceptibles ces derniers temps).
  • A notre système éducatif qui peine à sortir d’une ingénierie entièrement dévouée aux prouesses technologiques (condition nécessaire mais pas suffisante, pour reprendre le vocabulaire des « têtes bien pensantes »).

La réalité

« Bon finalement, le designer sert à quoi ? » Voici la définition qu’en donne l’École nationale supérieure de création industrielle (ENSCI – Les Ateliers) :

Au sein de l’équipe de conception, le designer veille à la cohérence structurelle du produit. Les solutions qu’il retient sont non seulement de nature à garantir le bon aspect de l’objet produit mais surtout sa parfaite organisation interne et la pertinence de son rapport à l’utilisateur.

Verner Panton disait :

Le travail du designer est de coordonner à tous les niveaux de production, d’étudier et de répondre aux exigences du consommateur, de dépasser les bases objectives et de trouver une cohésion claire et délibérée entre les facteurs pratiques et esthétiques.

La pratique

« C’est bien beau ces discours, mais moi, quand dois-je faire intervenir le designer ? » Tout au long du projet, et en particulier au début, quand les grandes orientations doivent être définies. Imaginez juste un instant un produit Apple dessiné après avoir été conçu…

CrazyEgg, enfin du neuf dans l’analyse d’audience ?

CrazyEgg

Je n’ai pas trop l’habitude de présenter le « tout dernier service web qui va révolutionner la planète », d’autres le font bien mieux que moi et vous savez peut-être ce que j’en pense.

Je fais une exception avec CrazyEgg parce que je trouve l’idée simple et utile, le genre de truc qui facilite la vie. CrazyEgg analyse le comportement des visiteurs de votre site web. Vous me direz, le marché de l’analyse d’audience est loin d’être nouveau. Oui, mais ici, les résultats sautent aux yeux ! Ils permettent vraiment de travailler l’ergonomie de votre interface.

Là où les autres outils se contentent de dresser une vue globale des comportements (pages vues, pages populaires, pages d’entrée et de sortie, chemins de visites, etc.), CrazyEgg vous en donne le détail. La démonstration parle d’elle-même.

User Generated Applications : utopie ou réalité ?

Même si le web 2.0 n’a pas inventé les réseaux sociaux, il a permis de généraliser la notion de User Generated Content, c’est-à-dire la création et la gestion du contenu par les utilisateurs. Tous les services « à la sauce web 2.0 » fonctionnent sur ce principe (à commencer par les blogs).

Et après ? Va t-on s’arrêter en si bon chemin ? Que peut-on apporter de plus à l’utilisateur ? Christian Fauré nous en donne la réponse : les User Generated Applications. A priori, son billet peut semer le doute (il date du 1er avril), et pourtant il ne manque ni de pertinence, ni de justesse.

Une réalité, soutenue par la demande des particuliers

« Les User Generated Applications ? Nous n’y sommes pas encore ! » Détrompez-vous : elles sont déjà là !

Un des meilleurs exemples est sans doute Yahoo! Pipes. Ce service permet de créer son propre agrégateur à partir de flux d’informations choisis, filtrés et manipulés. Pour cela, une interface graphique simple mais puissante permet de définir les règles de sélection et de traitements des flux.

Yahoo! Pipes - Accueil
Page d’accueil Yahoo! Pipes.
Yahoo! Pipes - Editor
Yahoo! Pipes Editor.

Ning est un service tout aussi intéressant. Il se définit comme « un service pour créer vos propres réseaux sociaux ». Certains y verront une plate-forme de blogs améliorée, alors qu’il s’agit bien de concevoir sa propre application de diffusion et de partage de contenu. Du User Generated Content servi par une User Generated Application, en quelque sorte.

Ning - Acceuil
Ning, page d’accueil.
Ning - IHM
Ning, interface de création.

Pour achever de vous convaincre, il me reste à citer Coghead. Là, nous touchons à la personnalisation ultime pour un résultat qui sort totalement des services web classiques. Coghead crée des applications complexes, à partir de données structurées par l’utilisateur, via une interface graphique.

Coghead
Interface de Coghead.

La difficulté d’une implémentation en entreprise

S’il est facile de faire du « cousu main » pour les particuliers, l’exercice est tout autre en entreprise. Christian Fauré nous dresse le tableau idyllique :

Personne n’aurait vraiment la même application, la notion même d’application deviendrait floue. Chacun créerait aisément ses propres services, au besoin en utilisant une librairie de composants génériques.

[…]

Le métier change ? Hop, je m’adapte immédiatement en modifiant mes services paramétrés. Pas besoin d’attendre le déploiement de la nouvelle version d’un progiciel.

[…]

Ce que cela change :
– plus de notion de processus métiers, ni de re-engineering : chacun outille son processus
– le management du SI se concentre sur l’architecture de l’information, l’interopérabilité et la sémantique des données.
– plus de MOE et de MOA, on arrête de travailler comme si l’on construisait un bâtiment (ouf!)

Et sa contrepartie :

Cela suppose une plus grande sensibilité et maturité des salariés dans la maîtrise de l’informatique. Cette sensibilité et cette éducation ne peut être assumée par l’entreprise seule. L’école elle-même ne pourra assumer ce rôle, ou en tout cas pas tels que les systèmes éducatifs sont actuellement conçus.

[…]

Le malaise des décideurs : ceux dont la fonction consiste à demander des rapports : bye, bye !

[…]

Il faut une population de salariés compétents pour être autonomes.

Les applications générées par les salariés sont-elles utopiques ou une réalité à court terme ? J’opte pour la seconde réponse, à condition de maîtriser la sémantique et l’interopérabilité des informations de l’entreprise. Tout l’enjeu (et les risques !) sont là. Le but est de qualifier le moindre fragment de contenu pour l’exploiter dans des conditions inconnues lors de sa création. Utopique ? Encore une fois, non. Encore une fois, les exemples existent.

Prenons Freebase. Ce projet a pour ambition d’être une base de données géante et universelle, alimentée par ses visiteurs. A priori, rien ne la démarque d’autres services web, sauf qu’ici, chaque information est qualifiée, « sémantisée ». Là où Google tente de comprendre le sens du contenu par des algorithmes évolués, Freebase découpe chaque information en fragments qui ont du sens. Là où Google vous donne une probabilité qu’une page web réponde à votre question, Freebase apportera la réponse exacte, fusse-t-elle unique !

Freebase
Site web de Freebase.

Avec l’explosion des données qualifiées et l’inévitable indisgestion qui s’en suivra, l’utilisateur en entreprise devra s’appuyer sur des outils de recherche, de sélection et de visualisation des données, avant de construire sa propre application. A ce titre, je citerai l’étonnant projet Many Eyes d’IBM.

Projet Many Eyes - IBM
Projet Many Eyes d’IBM.

Un séisme pour les acteurs informatiques ?

Je n’entrerai pas dans les détails d’un sujet connexe et sensible (cet article est suffisamment long, je pense…), celui de la génération automatique de codes qui touche directement les professionnels de l’informatique. On reste dans la même logique : accélérer la mise à disposition d’outils informatiques. Avec des conséquences importantes sur l’activité de certaines entreprises.

Les agences web sont les premières touchées. Elles sont souvent gérées par des créatifs qui ont une vision artisanale du développement web. Je n’ai rien contre les artisans talentueux, mais face à un serveur qui crée une application web en 2 minutes à partir d’un fichier UML 2, après avoir effectué des tests unitaires pour rendre l’application « 100% bug free », il devient très difficile de lutter, sauf à utiliser les mêmes méthodes de production et à se démarquer par une réelle créativité (là où l’homme aura toujours sa place).

Ensuite, à qui le tour ? Aux SSII qui facturent le déploiement et la maintenance de solutions applicatives ? Aux éditeurs de logiciels qui vendent des licences poste à poste ?

Pour ma part, je vois plusieurs évolutions importantes :

  • Les projets informatiques se focaliseront sur l’interopérabilité des systèmes d’information (l’open source les y aidera sûrement).
  • La sémantique va jouer un rôle fondamental dans la manipulation et la transformation de l’information.
  • Le développement informatique se concentrera sur la capacité de l’outil à s’adapter, à se personnaliser et à s’autogénérer.
  • La conception centrée utilisateur sera la seule conception possible.
  • Les managers devront intégrer les contraintes liées à l’autonomie des utilisateurs et à la plasticité de leur outil de production.
  • Les éditeurs de logiciels se transformeront en fournisseurs de services (la bataille Google / Microsoft est un bon exemple) ou en spécialistes métiers (comme Adobe, par exemple).
  • Les entreprises de services informatiques devront inventer le « support utilisateur individuel ».
  • La création prendra une place prépondérante et sera enfin facturée, puisqu’elle seule ne pourra être automatisée (enfin, pas à court terme…).
  • Nous utiliserons enfin les outils que nous imaginerons.

Du grain à moudre

Deux articles (en anglais) de CNN Money qui montrent que le sujet est d’actualité :

Pour finir, une excellente vidéo de Nigel Parker (48 minutes, tout de même !) qui reprend ce qui fait le web d’aujourd’hui et ce que seront les services applicatifs de demain :

Le Web 2.0 atteint ses limites

Un contenu réapproprié

Sur son blog Ecosphère, Emmanuel Parody nous alerte sur une des limites du Web 2.0 : les services en ligne autogérés. Prenant l’exemple de Digg, il montre que l’appropriation de la gestion du contenu par des petits groupes d’utilisateurs très actifs entraîne un détournement du service. Des dérives qui signeront inévitablement un retour vers le contrôle a priori du contenu :

J’en discutais avec Emmanuel Davidenkoff […]. Son choix, très motivé, consiste à imposer la modération a priori des commentaires et des contributions au nom de la cohérence éditoriale et de la qualité. Du coup on perd sans doute en spontanéité et on doit aussi supporter le coût de l’opération. Pourquoi ne pas faire le pari de laisser ses contributeurs s’autogérer ? Parce que, selon lui, derrière la communauté se crée un noyau dur qui tend à développer sa propre culture, ses codes, s’approprie l’espace au point d’exclure rapidement les nouveaux arrivants. Bref en apparence le site gagne son pari en fidélisant un noyau dur mais passe à côté de sa mission fédératrice. (extrait de l’article Digg : 1$ par vote, c’est cher payé sur Ecosphère)

Un contenu inapproprié

Cet exemple me fait penser aux déboires de USA Today qui a joué à 100% la carte du Web 2.0 pour la dernière version de son site web… sans avoir mesuré préalablement le désintérêt de 92% des lecteurs pour ses services participatifs. Si l’origine du problème vient d’une mauvaise conception du projet (overdose de « buzz » ?), il montre également que les principes du Web 2.0 ne s’appliquent pas à tous les projets web.

Un contenu inexploité

Les réseaux sociaux très permissifs du Web 2.0 ne sont pas les seuls à montrer leurs limites. Nova Spivack, le président de Radar Networks, montre, schémas à l’appui, l’inadéquation des mots-clés (les fameux « tags ») pour qualifier l’information à mesure que le web grossit :

La recherche par mots-clefs ne comprend pas le sens de l’information. La recherche en langage naturel est un peu meilleure pour comprendre le sens de l’information – mais elle ne s’intéresse pas plus à la structure de l’information. Pour vraiment améliorer la productivité de la recherche sur le web, nous aurons besoin de nouvelles approches qui structureront les données – c’est-à-dire qui seront capable de chercher dans et entre des bases de données structurées et pas seulement sur du texte sans structure ou de l’HTML semi-structuré. (extrait de l’article Beyond Keyword (and Natural Language) Search, traduit par InternetActu)

Verra-t-on un retour vers une classification plus classique (arbre, hiérarchie, facettes, graphes…) ? Sans nul doute, à condition de créer des interfaces suffisamment simples et rapides pour éviter de transformer chaque internaute en documentaliste. Le web sémantique dont on parle depuis que le web existe va devenir incontournable.

Un contenu réexploité

Je terminerai par ce qui me semble être la principale limite du Web 2.0 : la propriété intellectuelle. Il ne faut pas oublier que le monde réel est entièrement fondé sur la propriété : biens, marques, modèles, brevets, etc. Sauf à créer un autre monde, il faudra bien que le web se plie à cette règle du jeu séculaire. Les conflits et les enjeux en croissance constante le prouvent : purge de YouTube, signatures d’accords avec les auteurs, presse belge contre Google. Or le Web 2.0 doit notamment son succès au pillage des contenus. Que restera-t-il des réseaux sociaux une fois les procédures judiciaires abouties ? Comment garantir la stabilité du marché de la publicité en ligne sur des contenus instables ? Comment les internautes vivront ce douloureux passage d’un web anarchique et prolifique à un web raisonné et respectueux ? Ou bien, se dirige-t-on vers un web totalement libre, comme le voyait son créateur, Tim Berners-Lee ? Devra-t-on rendre l’économie classique « open source » ? Nous n’en sommes encore qu’à la préhistoire de l’internet…

Une histoire du design interactif par Etienne Mineur

A l’occasion de la première soirée des Designers interactifs, Etienne Mineur a présenté une histoire du design interactif.