Christophe Le Bot

  • Navigation rapide
Pratique de la conception numérique

Derniers commentaires

  • Une excellente thèse sur Simile Exhibit
    • Olivier Rossel | Bonjour. Malgre les annees, avez vous toujours en memoire vos usages d’Exhibit? Je serais ravi d’en discuter avec vous. Cordialement, Olivier Rossel.
  • Utiliser le planificateur de tâches OVH (crontab) avec PHP
    • Max | Bonjour, comme faire pour appeler une version de PHP qui n’est plus proposée par défaut dans le manager ? J’essaie de lancer un cron avec php 5.3 mais le log affiche No such file...
    • Christophe | @absolument Merci pour ces précisions. Je n’ai pas mis en place de tâches cron récemment, mais j’ai reçu quelques notifications étranges d’OVH il y a quelques...
  • Récupérer le dernier auto-incrément MySQL avec PHP
    • Thy | Sujet toujours *très* utile en 2015 ! Je réponds à Serge tsimba qui récupère un « Resource id ». (Et à tous ceux qui ont le même souci mais qui ne le disent pas) :)...
  • Régler l’heure de serveurs virtuels sous Debian
    • Ares_XL | Il semble que sur Débian la commande « tzconfig &ra quo; soit dépréciée et remplacée par : « dpkg-reconfigure tzdata » elle donne accès à une...
 

Archéoblogologie – Episode 4 : le trésor

La suite d’Archéoblogologie…
Épisodes précédents : 1. Le décor2. Le best-of3. La source

La crème de la crème

En cette période festive (je parle des deux semaines de fin d’année qui viennent de passer, pas du reste un peu morose…), je vous propose un menu gourmand, mais pas indigeste. Certes, il y a de vieux plats faits avec de vieilles recettes, mais vous devriez y trouver du contenu à votre goût. Bref, au-delà du quantitatif, voici les articles de mon blog qui attirent encore mon attention aujourd’hui, avec le recul de celui qui en a oublié l’existence !

  • La toute première page du web
    Tout ceux qui passent plus de deux minutes par jour sur le web devraient connaître son contenu par cœur et remercier son auteur chaque matin. La révolution numérique que nous vivons est partie de cette page… Tout un symbole.
  • L’internet rapide et permanent
    Expliquer des concepts informatiques avec des mots simples et des schémas clairs, un exercice délicat, mais remporté haut la main par ce site toujours aussi utile. Attention ! Il a changé d’adresse : http://irp.nain-t.net/
  • CRUD, ACID, UDOD, CRAP
    J’ai eu ma période des acronymes à quatre lettres. C’est bizarre, le cerveau, des fois… Mais relire les quatre articles en même temps mérite le détour : un peu d’architecture, un peu d’exploitation, un peu d’analyse des besoins, un peu d’ergonomie. C’est ce que je fais tous les jours aujourd’hui !
  • Le Web 2.0 atteint ses limites
    Je n’ai jamais vraiment accroché avec le Web 2.0. Cet article le montre bien ! Mais, il s’est passé une chose fondamentale à ce moment-là : le producteur d’information n’était plus nécessairement l’expert, celui qui sait, mais l’observateur, celui qui surveille et diffuse les événements qu’il vit. Beaucoup de questions dans cet article, quand on partait tous vers l’inconnu. Aujourd’hui, nous avons beaucoup de réponses, mais la question des droits d’auteur est loin d’être réglée…
  • “Web 2.0″, Ajax, interfaces riches et prospective
    Encore une salve anti-web 2.0 ! Mais l’article se concentre sur la révolution Ajax… qui s’est largement confirmée depuis ! JavaScript est partout, la mise à jour de contenu à la volée concerne pratiquement tous les sites web, les mobiles et tablettes l’exploitent à fond. Bref, Ajax est incontournable. La question sur le futur des interfaces reste entière : on prend le chemin que j’avais décrit à l’époque.
  • Y a-t-il des spécialistes d’Exhibit dans la salle ?
    J’avais promis de parler des projets Simile. Voici le premier article sur le sujet, à un moment où je découvrais le web sémantique. Le travail réalisé par le MIT sur le sujet est passionnant et j’utilise toujours les Simile Widgets aujourd’hui. Merci à Gautier Poupeau et Christian Fauré pour avoir partagé leurs connaissances éclairées !
  • Simile Exhibit 2.0 officiellement en français
    J’ai tellement aimé les Simile Widgets que je les ai rendus disponibles en français ! Il va falloir que je m’occupe de la version 3…
  • Une excellente thèse sur Simile Exhibit
    Allez, encore un article là-dessus et j’arrête de vous bassiner ! Mais celui-ci vaut vraiment le détour. Bien plus que les miens !
  • Magento dévoile son business model
    Voilà LE sujet qui m’occupe depuis fin 2007. C’est une période très lointaine, dans le référentiel hyper-actif du web ! Mais il faut bien reconnaître que cette solution e-commerce en avait dans le ventre et ce n’est pas un hasard si elle est la plus utilisée dans le monde aujourd’hui. Vous avez été très, très nombreux à lire ce premier article de fond, les commentaires passionnés en témoignent.
  • World of Goo : le design numérique par excellence
    Je ne parle pas souvent de jeux vidéo. C’est un tort ! Cette activité numérique est extrêmement créative et innove en permanence. Pour preuve, ce jeu génial, sorti initialement pour PC en 2008 et qui fait, quatre ans plus tard, un tabac sur mobiles et tablettes. Une note de 4,8 sur Google Play, c’est plus que bien !
  • Livre Magento : ça, c’est fait !
    Du papier, oui, ça existe encore ! Et c’est bien pratique pour apprendre de nouvelles connaissances et structurer sa mémoire. Cela fait plus d’un an et demi que mon livre sur Magento est sorti. Il a un peu vieilli, mais il se vend encore. Je n’ai jamais donné de chiffre (je ne sais pas si je peux le faire, d’ailleurs…), mais il s’est bien vendu ! Une nouvelle édition avec plein d’astuces techniques et la version 2 de Magento ? Ce serait bien, mais quel boulot de dingue d’écrire un livre ! Je suis content de l’avoir fait, mais ça laisse des traces. Pas très chaud pour remettre ça… Mais j’aime les challenges 😉

C’est sur cette exhumation que prend fin la série Archéoblogologie. Mais avant de conclure, j’ai promis de vous parler des brouillons, ce mal pandémique des blogueurs… A ce jour, 30% des articles de mon blog sont encore des brouillons, des contenus que je suis le seul à connaître, autant de trésors potentiels… ou vieux scoops sans aucun intérêt.

Yes ! Il y a quelques perles dans ces brouillons. Je pense que je vais calmement les relire et les publier.

Comme celui sur la capitalisation d’Apple qui au mois d’août 2012 atteignait l’équivalent du quart du PIB de la France ! Depuis, le soufflet est retombé.

Ou celui-ci qui montre une page de résultat de Google étonnante dans laquelle Google n’apparaît pas sur les mots-clés « moteur de recherche », mais fait la part belle à ses concurrents ! C’est logique, on est déjà chez Google, mais ça fait bizarre, non ?

Moteur de recherche dans Google Résultat de la recherche des mots « moteur de recherche » dans Google

Bref, tout ça pour dire que ce ne sont pas les sujets passionnants qui manquent. Juste un temps énorme pour les analyser, les synthétiser et les publier.

Pourtant, si je reprends les rênes de ce blog, c’est pour une seule raison : après avoir bricolé avec 10000 outils, des tablettes, smartphones, réseaux sociaux et services en cloud, je me rends compte que j’ai des dizaines de milliers d’informations collectées et stockées sur des dizaines de terminaux et de serveurs et que je suis incapable de les exploiter au quotidien. Après réflexion, je me suis rendu compte que mon blog était le meilleur endroit pour stocker sur le long terme des informations qui me sont importantes. J’ai fait un grand ménage un peu partout et la synthèse se retrouve ici, au fur et à mesure. Dans un premier temps, sous forme de brouillons, bien sûr !

Vous aussi, tentez l’aventure de l’archéoblogologie ! Déterrez le nectar de vos vieux blogs ! Reprenez la main sur vos contenus éparpillés ! Utilisez votre esprit de synthèse ! Diffusez VOTRE savoir !

Archéoblogologie – Episode 3 : la source

La suite d’Archéoblogologie…
Épisodes précédents : 1. Le décor2. Le best-of

Mais qu’est-ce que vous me voulez ?

Voyons maintenant par quels mots-clés les visiteurs arrivent sur mon blog. Les cinq premiers sont :

  • xdebug eclipse
    Normal. L’article correspondant est très consulté. C’est rassurant de voir des développeurs s’intéresser aux outils de debugging !
  • magento
    Ah tiens ? C’est vrai. Il fut une époque lointaine où je parlais de Magento sur ce blog, avant de transférer le sujet sur mon autre blog Magentips. Encore un bon cas d’étude archéoblogologue…
  • drupal ovh
    Logique. Un contenu toujours recherché… tant que PHP6 n’est pas chez OVH. Hum… Désolé pour la mauvaise blague, mais elle était facile. On en reparle dans, disons, six ans ?
  • christophe le bot
    C’est moi ! Mais c’est aussi plein d’autres. Grâce au web, j’ai déjà identifié 12 homonymes. Eh bê, il faut même se battre pour le référencement de son propre nom… La vie numérique est cruelle. Dans la vraie vie, on ne rencontre pas autant de monde !
  • favicon generator
    Étonnant que je sois une source d’information aussi consultée sur le sujet. J’ai juste fait quatre lignes sur un service proposé par un autre site. Pourquoi passer par chez moi ? Ah mais oui, sur internet, le chemin le plus long est souvent le plus court. Et puis d’abord, c’est Google qui décide !

Si je les compare aux mots-clés saisis dans le champ de recherche du blog, le résultat est assez différent :

  • graphe
    J’aime beaucoup ce sujet, même si je n’ai pas trop écrit dessus. J’avais surtout un lien vers un très bon site qui n’existe plus aujourd’hui. Il expliquait clairement la théorie des graphes. Il faut croire que quelques visiteurs le cherchent encore… Vous savez quoi ? J’en ai fait une copie au format PDF que j’ai ajoutée en fin de page ! Mais chut, ça reste entre nous 😉
  • magento
    Le revoilà, celui-là. Dans le genre « Succès du web », Magento a une sacrée bonne place ! Il doit se retrouver dans le top 10 des mots recherchés sur plusieurs milliers de blogs !
  • selenium
    Quasiment rien sur mon blog sur le sujet… Des visiteurs perdus ? J’ai eu la flemme de regarder pourquoi. Le quantitatif m’ennuie assez vite, en fait.
  • timeline
    La fameuse période Simile ! Mais je ne dirai rien : j’en parle plus loin.
  • amende
    Ben ouais, quand il reste la journée pour payer son amende avant majoration, le champ de recherche est un outil efficace. Surtout quand mon article vous évite d’y passer plus de la journée !

Bientôt, la suite d’Archéoblogologie – Episode 4 : le trésor…

Archéoblogologie – Episode 2 : le best-of

La suite d’Archéoblogologie…
Épisode précédent : 1. Le décor

Qu’est-ce que je vous sers ?

Passons à une analyse plus quantitative. C’est bien, le quantitatif, ça rassure. On semble maîtriser le mouvement, on mesure, on calcule, on surveille. Qui a la plus longue ? La plus longue durée moyenne de visite, la plus longue traîne sur certains mots-clés, la plus longue période sur la première page de résultats de Google, la plus longue liste de followers, likers et autres gogolers

En attendant, d’autres avancent, innovent, bousculent, prennent le risque de rompre le savant équilibre pour sombrer dans l’oubli ou encaisser le choc d’un énorme succès.

Tant pis pour cette fois, je me retiens, c’est tellement facile le quantitatif. Alors moi aussi je vous offre mon best-of. Mais attention, un best-of 2006-2012 ! Les pages les plus vues de mon blog depuis l’origine sont, dans l’ordre :

  • Régler l’heure de serveurs virtuels sous Debian
    Des milliers d’administrateurs-système ont mis à l’heure des dizaines de milliers de serveurs, grâce à cette page ! Enfin… J’aime bien pensé que c’est possible. En tout cas, sans rien faire, des dizaines de visiteurs la lisent tous les jours. Quelques sites référents dans le monde Linux font un bon boulot de sourcing !
  • Configurer Xdebug pour Eclipse PDT en utilisant un serveur de test distant
    Là encore, beaucoup de trafic, même si je trouve l’article léger et incomplet. J’avais promis une suite, mais elle n’est même pas dans les brouillons. Les brouillons ! Il faut que je vous en parle ! Euh, après, après…
  • Récupérer le dernier auto-incrément MySQL avec PHP
    Celui-ci est intéressant, d’abord parce qu’il aide beaucoup de développeurs, mais aussi parce que les commentaires sont un cas d’école : intéressants, enrichissants et sympathiques. Tout ce que j’apprécie dans les échanges !
  • Test d’interface : paiement d’amendes en ligne
    L’OVNI du blog… Un truc de dingue… Je teste l’interface du site de paiement des amendes et je récupère tout ceux qui n’arrivent pas à l’utiliser. Si j’avais pris un pourcentage, je serai millionnaire !
  • Installer Drupal 6 sur un serveur mutualisé OVH
    Un article court, mais important pour ceux qui veulent faire tourner du PHP5 chez OVH. Forcément, les astuces qui fonctionnent attirent du monde.

Bientôt, la suite d’Archéoblogologie – Episode 3 : la source…

Archéoblogologie – Episode 1 : le décor

Il est toujours passionnant de déterrer les vieux outils numériques. On constate alors le décalage technique, social et fonctionnel qui existe avec ceux d’aujourd’hui. Quoique… On retrouve aussi de bonnes idées, posées il y a longtemps et « reliftées » pour les réexploiter de façon très lucrative. Pas grave, tout va trop vite, alors on oublie. Donc on nous le ressert… mais différemment !

Archéo quoi ?

Où voulais-je en venir, déjà ? Ah oui, l’archéoblogologie, ou la découverte de vieux blogs quasi-éteints, enterrés sous la toile du web. Et je n’ai pas de meilleurs cas que celui de… ce blog ! En effet, en sept ans, il a connu plusieurs phases : celle d’une activité débordante à celle de l’abandon complet, en passant par des simili-transformations et changements de cap pas trop bien assumés…

Cette plongée dans un micro-rouage de l’histoire du web me pousse à partager avec vous quelques constats et réflexions.

Le contexte

Ouvert en mars 2006, en pleine hégémonie du Web 2.0, mon blog a rencontré un certain succès et un public fidèle (merci !). Certains pics à plusieurs centaines de visiteurs par jour m’avaient longtemps étonné à l’époque, surtout quand je les comparais aux statistiques des sites de certains de mes clients… Un contenu de qualité (c’est vous qui l’avez dit !), quelques relais bien choisis (la magie des réseaux) et hop !

Petit à petit, je suis passé à d’autre activités chronophages, le contenu s’est fait plus rare et les visiteurs aussi. Rien que sur les 24 derniers mois, le trafic a baissé de 60% ! Pas de quartier… Et pas de miracle : il faut bosser !

Tout change ? Là, non…

Premier constat, et pas des moindres : dans ce monde numérique où tout est obsolète en 6 mois, ce blog utilise la même solution technique depuis sept ans. Bon, bien sûr, entre le WordPress de 2006 et celui de maintenant, c’est un peu comme passer d’une R16 à une Megane IV, mais on reste dans la même philosophie. Et surtout, le contenu a suivi pendant tout ce temps ! Pas de migration délicate ou lourde, c’est toujours simple (à condition de prendre les précautions de base). Côté serveur, là aussi, les technologies sont les mêmes. J’aime bien ce confort inhabituel 😉

Bien sûr, il manque quelques petites choses : un thème HTML5 + CCS3, une version mobile, des pages responsive. Et pas de bouton Like, G+ et autres verrues ! Oh, c’est carrément old school, là.

Ah si, ça change un peu…

Au final, un blog se gère très bien dans la durée, les détails arrivent toujours à suivre. Mais une question me tracasse : à quoi ça sert, un blog, en 2013 ? C’est le concept du blog qui prend un coup de vieux, face aux plates-formes sociales, aux applications mobiles, aux appareils ubiquitaires et aux nouveaux modèles économiques dans lesquels s’enferment les utilisateurs.

Pourtant, j’ai l’impression que les blogs représentent maintenant le socle stable du contenu du web, celui autour duquel des milliards de données sont échangées : « j’aime », « j’aime pas », « t’as vu ? », « tu connais ? », « trop cool », « c’est fun », « lol », etc. Bref, là encore la loi de Pareto est respectée : seulement 20% des contenus font 80% du savoir, il reste à dénicher les 20% restants dans 80% des échanges de données.

Demain, la suite d’Archéoblogologie – Episode 2 : le best-of…

Tel est pris qui croyait prendre

Internet fraud costs victims millions of dollars each year. Protect yourself with Escrow.com!

Mon petit doigt me dit que cette entreprise va avoir un peu de mal à développer son activité sur les marchés francophones… Pourtant, elle a des atouts indéniables :

Prix Escrow

Il reste comme un malaise, non ?

Y a-t-il des spécialistes d’Exhibit dans la salle ?

Logo Simile

Cela fait un certain temps que je suis avec beaucoup d’intérêt les travaux du MIT (Massachusetts Institute of Technology) autour de Simile (Semantic Interoperability of Metadata and Information in unLike Environments). Ses intervenants défrichent le terrain du web sémantique avec beaucoup de talent et sans oublier de passer de la théorie à la pratique.

Le projet le plus connu est sans doute Timeline qui se veut le « Google Maps du temps ». J’avoue que le résultat est plutôt à la hauteur de la comparaison, d’autant que l’intégration de Timeline dans un site web est triviale !

Par contre, je suis un peu moins enthousiaste avec Exhibit. Ce framework permet de publier des données structurées et de les manipuler dans une interface web avec une déconcertante facilité. Le concept est génial mais je trouve certains choix techniques très discutables.

Pourquoi avoir créé des attributs HTML spécifiques à Exhibit ? Par exemple, pour réaliser un filtre à facettes, il faut écrire le code suivant :

<div id="exhibit-browse-panel" ex:facets=".discipline, .relationship, .shared, .deceased"></div>

Résultat, le code source n’est pas conforme et la page n’est pas accessible (au sens ergonomique). Des inconvénients qui vont à l’encontre du web sémantique ! Pourquoi ne pas avoir développé une syntaxe particulière pour les valeurs des attributs HTML officiels ? C’est le principe de diffusion adopté par les microformats.

Quant aux données, elles proviennent d’un objet Javascript (plus précisément d’un objet JSON). Adopter JSON est une excellente idée… sauf pour le référencement de la page web. En effet, pour un robot d’indexation, une page Exhibit est vide ! Il y a bien quelques pistes pour résoudre le problème, mais je suis loin d’être convaincu. Il me semblerait plus judicieux d’intégrer les données par défaut dans le code source HTML et de les manipuler via des méthodes non intrusives (unobstrusive Javascript) par le DOM du navigateur.

Et de votre côté, utilisez-vous Exhibit dans vos projets ? Avez-vous trouvé des réponses à ces contraintes ?

Exhibit a un tel potentiel que je ne voudrais pas être bloqué par ces deux défauts majeurs. Surtout qu’un autre projet va en décupler l’intérêt : Potluck (merci Christian pour cette découverte !).

“Web 2.0″, Ajax, interfaces riches et prospective

J’ai toujours détesté le terme « web 2.0 ». Il ne signifie rien. Il englobe ce que chacun veut y mettre et ne sert qu’à convaincre les clients crédules de la nécessité d’une refonte de leurs services en ligne.

Les acteurs du web n’ont pas attendu la vague du « web 2.0 » (à quand le ressac ?) pour créer des communautés ou des applications en ligne (on remarquera au passage que les web applications sont devenues des SaaS, softwares as a service, c’est plus « tendance »).

Et que dire du contenu généré par les utilisateurs (le fameux User Generated Content si cher au « web 2.0 ») ? N’est-ce pas la fonction première du web que de permettre la diffusion rapide, massive et économique de contenu ? Depuis 1990 (et la première page web), les utilisateurs mettent en ligne du contenu.

J’ai eu la chance de concevoir des services « à la sauce web 2.0 » dès 1998 : sites communautaires, applications en ligne, outils de travail collaboratif… Et je n’étais pas le seul ! Mais il faut bien avouer que deux choses ont freiné leur expansion : les connexions bas débit et l’inviolabilité de la sphère privée.

Tout le monde peut comprendre qu’avec un modem RTC qui charge une page web en 55 secondes, il est impossible d’avoir des services tels que YouTube. Quant à la sphère privée, il a fallu une bonne dizaine d’années pour que l’internaute s’habitue à publier (donc rendre public) quelques bribes de sa vie personnelle (avec les excès que l’on connait aujourd’hui…).

Finalement, pour moi, le « web 2.0 », c’est :

  • un coup marketing de maître !
  • la généralisation du haut débit
  • l’ouverture de la sphère privée

C’est tout. Enfin presque… J’ai oublié le seul point réellement nouveau dans le « web 2.0 » : Ajax (Asynchronous JavaScript and XML), rendu possible grâce à l’implémentation de XMLHttpRequest dans Internet Explorer (merci Microsoft !).

Ajax change tout, à commencer par la notion de page web. Comme le fait très souvent remarquer Frédéric Cavazza, peut-on encore utiliser le terme de page web, alors que le contenu et la forme évoluent par petites touches au sein d’une seule page ? Netvibes en est un bon exemple.

Nous en sommes à l’ère des single page applications (SPA). Ses effets révolutionnent notre manière de voir et de concevoir le web. Les ergonomes sont obligés de revoir toutes leurs préconisations. Ajax change nos méthodes de production, les éditeurs de code HTML (comme Dreamweaver) ont disparu et font place à des environnements de développement lourd. Ajax bouscule les habitudes chèrement acquises des internautes (on ne touche plus au bouton « Page précédente » du navigateur pourtant si pratique !). Ajax perturbe l’économie du web en faussant la mesure d’audience.

Ajax finira peut-être par tuer le web, en imitant toujours mieux le comportement des applications classiques. Il rendra inutile le navigateur web et favorisera l’émergence des RIA (Rich Internet Applications), puis des RDA (Rich Desktop Applications). Finalement, Ajax entraînera un retour aux sources de l’informatique grand public : un système d’exploitation, des applications locales, des interfaces riches.

A la différence que tous leurs éléments intrinsèques seront connectés à internet et dépendront de lui : WebOS, RDA, Widgets, SaaS. Le web sera, quelques temps encore, un protocole d’échanges de données entre machines, avant de disparaître…

CrazyEgg, enfin du neuf dans l’analyse d’audience ?

CrazyEgg

Je n’ai pas trop l’habitude de présenter le « tout dernier service web qui va révolutionner la planète », d’autres le font bien mieux que moi et vous savez peut-être ce que j’en pense.

Je fais une exception avec CrazyEgg parce que je trouve l’idée simple et utile, le genre de truc qui facilite la vie. CrazyEgg analyse le comportement des visiteurs de votre site web. Vous me direz, le marché de l’analyse d’audience est loin d’être nouveau. Oui, mais ici, les résultats sautent aux yeux ! Ils permettent vraiment de travailler l’ergonomie de votre interface.

Là où les autres outils se contentent de dresser une vue globale des comportements (pages vues, pages populaires, pages d’entrée et de sortie, chemins de visites, etc.), CrazyEgg vous en donne le détail. La démonstration parle d’elle-même.

Comment éviter un double référencement

Un internaute est un être précieux… mais volatile. Il suffit d’un détail pour que votre site passe aux oubliettes.

Dans la « top list » des petits trucs qui agacent : l’obligation d’entrer « www. » dans la barre d’adresse du navigateur pour accéder à un site. Quatre caractères qui n’apportent aucune information particulière, sauf celle de définir un site web (ce que l’on sait déjà puisqu’on utilise le protocole HTTP). Heureusement, la plupart des sites propose un accès via leur domaine seul (exemple.com) ou avec l’adresse complète (www.exemple.com).

Cependant, aux yeux des moteurs d’indexation, il s’agit de deux sites différents. Votre contenu sera donc diluer dans les index des moteurs de recherche. De même, les liens vers votre site ou son clone diminueront le « poids » de vos pages web (le fameux « page rank » de Google, par exemple).

Pour conserver l’avantage d’une adresse courte et éviter le double référencement, il suffit de placer ces lignes dans le fichier .htaccess situé à la racine du site :

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.exemple\.com [NC]
RewriteRule (.*) http://www.exemple.com/$1 [QSA,R=301,L]

Cette règle de réécriture permettra au serveur de rediriger les visiteurs (et les moteurs d’indexation) vers l’adresse complète (www.exemple.com).

Pourquoi ne pas en profiter pour faire l’inverse, à savoir simplifier l’adresse en redirigeant vers le domaine seul ? Parce que la norme impose de garder « www » comme adresse principale d’un site web. Internet et les noms de domaines existaient bien avant le web (les premiers domaines en « .com » ont été achetés en 1985, cinq ans avant la naissance du web) et servent à d’autres services internet (messagerie, transferts de fichiers, surveillance réseau).

Google, Yahoo et Microsoft à l’unisson autour de Sitemap

Sitemap

Google, Yahoo et Microsoft, frères ennemis ? Pas toujours ! Ils savent aussi travailler ensemble quand cela favorise leurs intérêts respectifs. Un exemple : le protocole Sitemap, initié par Google, fait maintenant l’objet d’un site dédié (sitemaps.org) et d’une licence Creative Commons pour favoriser son adoption. Autant dire de suite que Sitemap sera LE standard d’indexation du contenu des sites web.

Avec Sitemap, le webmaster reprend la main sur l’indexation de son site : il peut en décrire la hiérarchie, favoriser l’importance d’une page ou indiquer la régularité des mises à jour. Ces données sont stockées dans un ou plusieurs fichiers XML soumis directement aux moteurs d’indexation.

C’est toujours mieux que le simple fichier robots.txt, mais ce n’est pas encore la panacée. Sitemap est parfait quand la structure du site évolue peu. Par contre, lorsqu’à l’occasion d’une refonte, des contenus changent de rubriques, sont fusionnés ou éclatés, changent de domaine, Sitemap ne sait pas décrire ces changements. Certes, les codes de statut HTTP peuvent y remédier, notamment les 301, 302, 303 et 307, mais ils sont souvent mal exploités (quand ils le sont…) par les systèmes de gestion de contenu et sont plutôt destinés aux navigateurs web qu’aux moteurs d’indexation.

La bonne idée serait donc d’ajouter quelques balises dans les fichiers XML Sitemap pour indiquer les changements de structuration du contenu (suppression, déplacement, fusion, éclatement, pages liées, etc.). On pourrait alors se passer du fichiers robots.txt et de quelques balises META dans le code HTML de chaque page. On pourrait même imaginer se passer des codes de statut HTTP si le navigateur web savait exploiter les fichiers XML Sitemap. Il me reste à contacter les frères ennemis pour mettre tout cela en place !