Blog

Robots d'indexation de sites internet, que sont vraiment les Googlebots ?

Google Robots d'indexation

Les robots d’indexation d’internet font partie des choses à maitriser (ne serait-ce que de loin) afin de pouvoir mettre en place une réelle stratégie de référencement naturel.

Bien sûr, il ne s’agit pas de tout savoir sur le fonctionnement technique des googlebots, spiderbots et autres web crawlers. Mais comprendre un tant soit peu la logique qui les anime vous fera gagner non seulement des clients et de l’argent, mais aussi beaucoup de temps.

C’est pourquoi nous avons décidé de rédiger pour vous cet article. Notre but est que vous soyez à même de pouvoir juger l’ensemble des propositions stratégiques que nous serions amenés à vous soumettre dans le cadre d’une éventuelle future collaboration visant à booster à fond votre SEO.

Aux origines des robots d’indexation d’internet

Vous êtes-vous déjà demandé comment fonctionne Google ? Et comment lui et les autres moteurs de recherche que sont Bing, Ecosia, ou Lilo par exemple, font pour mettre à jour leurs résultats ?

Il convient de revenir ici sur ce qu’est finalement le projet fou de ces entreprises : indexer internet.

Utilisons la métaphore de la bibliothèque pour y voir plus clair. Internet compte actuellement 1,83 milliard de sites. Imaginez que ces sites soient des livres, et internet une gigantesque bibliothèque. Vous cherchez une information, mais évidemment, vous ne savez pas où la trouver, et n’allez pas lire tous les livres jusqu’à obtenir la réponse. Alors vous demandez au bibliothécaire : le moteur de recherche. Lui, son boulot, c’est de prendre connaissance du contenu du plus grand nombre de livres, et de les mettre dans des listes, selon un ordre de cohérence vis-à-vis d’une question précise.

Or comment fait-il pour prendre connaissance de tous ces sites, ainsi que de leurs mises à jour ? Il envoie ses googlebots (aussi appelés web crawlers ou web spiders) qui passent leur vie à copier le contenu des sites et à le lui rapporter, jours et nuits.

Ensuite, le bibliothécaire va trier les infos, et en fonction d’une multitude d’algorithmes, il va considérer que la réponse apportée par tel site devra être plus fiable qu’une autre. C’est ce qu’on appelle l’indexation du web. Car il faut bien comprendre que Google ne connait pas réellement la réponse, mais que ses résultats seront organisés en fonction de la crédibilité qu’il accordera à votre site.

Au passage, notons que le tout premier robot d’indexation d’internet s’appelait World Wide Web Wanderer, et date de 1993. Bien avant l’apogée de Google donc.

L’importance de l’indexation et des crawlers pour votre business

Continuons sur les métaphores. Vous êtes boulanger, et venez d’ouvrir votre boulangerie. Le problème, c’est que vous vivez dans une région où il y a une concurrence énorme, et dans une toute petite ruelle par laquelle personne ne passe jamais (et pour cause : aucun chemin n’y mène !).

Cette boulangerie, c’est votre site internet. Comment vos éventuels futurs clients vont faire pour vous trouver ? Ils vont demander à Google. Lui, si vous avez bien fait votre boulot de référencement naturel, il sait que votre boulangerie est la meilleure, et donc il va orienter le client vers vous. Par ce que votre stratégie de référencement naturel correspond à des gros panneaux lumineux indiquant « meilleure boulangerie du coin » et à une belle route pavée qui y mène tout droit.

À l’inverse, si vous n’avez pas pris soin de votre référencement naturel, vous ne serez qu’un résultat parmi les millions d’autres disponibles. Avez-vous déjà cherché une information sur la 17ème page de Google ? Non. Personne ne fait ça. Seuls les tout premiers résultats comptent. C’est pourquoi votre rapport avec les crawler bots est primordial !

Soyez ami avec Google, prenez soin de ses bots

Le fonctionnement des robots d’indexation a bien évidemment un coût pour les moteurs de recherche. Autant vous dire qu’ils apprécient quand quelqu’un leur facilite le travail. Les sites permettant une fréquence de crawling élevée seront aussi les mieux placés. C’est pourquoi les spider bots aiment beaucoup les « carrefours de sites ».

Si par exemple votre site est cité par plusieurs autres, et que lui-même renvoie sur d’autres encore, et ce dans le cadre de problématiques relativement communes (par exemple : boulangerie / arts de la table / artisanat local), le robot d’indexation saura dès son premier passage qu’il y a là un croisement, un chemin facilité vers plusieurs problématiques et plusieurs sites. C’est en cela notamment que s’explique l’importance du netlinking.

Mais cela implique aussi une responsabilité de votre part : il faut que votre site soit bien fait, que son codage HTML soit le plus soigné possible, et idéalement qu’il soit mis à jour régulièrement.

Ensuite, de la même façon que l’UX (« l’expérience utilisateur », ou la façon dont les visiteurs humains du site vont agir) sera primordiale pour votre SEO, on pourrait dire que l’expérience du crawler bot sera décisive. Si votre site est mal configuré, trop long à charger, ou si le robot d’indexation découvre qu’il y a deux contenus parfaitement similaires, il va revoir votre indexation à la baisse. Car cela lui aura fait perdre un temps précieux.

On ne le dira jamais assez, les mots-clefs sont eux aussi d’une importance capitale. Car c’est grâce à ceux-là que le robot d’indexation saura de quoi traite votre site. Chaque mot-clef (les mots en gras, dans le présent article) est un appât à robot d’indexation.

Ainsi un site bien fait et régulièrement mis à jour, couplé à une stratégie SEO en béton vous offrira une grande visibilité. Pensez-y, lorsque vous créez votre site ou que vous l’alimentez en contenu : rapidement, un spider bot va passer par là, et il faudra qu’il trouve ce qu’il est venu chercher, sinon vous aurez jeté de l’argent par la fenêtre.

Ça tombe bien, vous êtes sur la page d’une agence de communication jeune, dynamique et passionnée qui va pouvoir s’occuper de chacun de ces aspects. N’hésitez pas à nous contacter pour en savoir plus !