Comprendre les 4 animaux Google

comprendre-les-4-animaux-google

Quand on parle de référencement on va chercher le moyen et mettre en place des choses qui permettront de faire remonter notre site afin qu’il soit positionné sur notre moteur de recherche préféré, j’ai nommé : Google.

Les algorithmes de Google

Même si aujourd’hui nous allons parler de 4 algorithmes, il faut bien avoir en tête que ce ne sont absolument pas les seuls !

Ces algorithmes ont pour but d’améliorer la pertinence des résultats de recherche. On peut également noter qu’ils ont un but précis qui va influer sur la balance globale comme :

  • Pénaliser les sites ou les pages qui ne respectent pas les consignes de Google (Keyword Stuffing, Backlink artificiel, cloaking).
  • Récompenser les sites ou pages qui mettent en place les recommandations Google (Site Responsive, Vitesse de chargement du site, contenu de qualité).
  • Comprendre les requêtes des utilisateurs.

Afin de bien référencer son site internet il va donc falloir montrer à Google que notre site est propre, correspond à ses attentes et que par conséquent il peut nous faire remonter dans le classement !

Avant de lister et expliquer le but de chacun de ces algorithmes, je tiens à rappeler que ce ne sont pas les seuls à intervenir dans le positionnement d’un site internet et qu‘ils ne sont pas rangés par ordre d’importance, mais qu’ils sont rangés de façon arbitraires.

Algorithme Penguin

comprendre-google-pingouinEn version 4.0 depuis le 23/09/2016, Google Penguin a été lancé en avril 2012.

Son rôle est de pénaliser les sites qui violent les consignes de Google en matière de référencement. Par exemple il viendra vérifier la présence ou non de trop de liens artificiels menant vers un site.

Cet algorithme a vu aussi l’apanage du Negative SEO, car il était bien plus facile de faire pénaliser le site de son concurrent avec des liens douteux (comprendre porno, site spam etc.) que d’optimiser son propre site ! En effet les pénalités automatiques ne pouvaient être levées que par le lancement manuel de Google Penguin pour qu’ensuite l’algorithme effectue une nouvelle vérification des backlink.

Depuis la version 4.0 ce problème est réglé, car non seulement l’algo s’applique à une PAGE et non pas au site entier, mais aussi car l’algo étant intégré au moteur, les vérifications de backlink s’effectuent automatiquement.

Algorithme Panda

comprendre-google-pandaGoogle Panda a été déployé en Février 2011 aux Etats Unis et est arrivé en France pour la première fois en Août 2011.

Entre 2015 et 2016, Google Panda a été intégré au cœur de l’algorithme de classement.

Google Panda lui s’attaque vraiment au contenu d’un site en recherchant les techniques de spam utilisées sur un site:

Les pages sur-optimisées pauvres en contenu : typiquement le genre de site ayant quelques lignes de textes n’ayant pour but que le ciblage d’expressions ou mots clés sans valeur ajoutée, ou bien les sites qui ne sont jamais mis à jour (faire vivre son site est primordial)

Les fermes de contenus : ces fermes sont des sites qui créent du contenu de faible valeur surfant sur les tendances actuelles afin de brasser énormément de trafic et générer des revenus publicitaires, tout en n’hésitant pas à copier des articles déjà existants par exemple.

Les sites type agrégateur : ces sites, vous les connaissez, ce sont les comparateurs en tout genre (assurance par exemple), codes de réductions, annuaires, etc.

Au final les sites les plus impactés par Google panda sont :

  • Les comparateurs de prix
  • Les annuaires généralistes
  • Les sites d’avis
  • Les sites internet utilisant le content spinning (génération de contenu automatique grâce à des scripts dédiés)

Algorithme Pigeon

comprendre-google-pigeonGoogle Pigeon est sorti pour l’international en juin 2015.

Cet algorithme est lui dédié aux classements dans les résultats locaux, et va donc tenter de donner les résultats les plus pertinents en local en prenant en compte Google Maps (Google My Business), la distance entre l’internaute et l’entreprise recherchée, et va intervenir surtout dans les requêtes de type : « MotCléRecherché + Ville ».

Avec cet algorithme, les entreprises utilisent les méthodes suivantes afin de se référencer :

  • Créer et optimiser une page Google My Business
  • Inscrire son site sur des annuaires professionnels (locaux de préférence)
  • Tenir ses informations de contact à jour. Votre adresse, votre numéro de téléphone, ou vos horaires doivent être à jour.
  • Travailler les avis clients (en plus de l’utilité indéniable de ces avis)

Google Colibri

comprendre-google-colibriCet algorithme est arrivé en Septembre 2013 et a changé la compréhension des demandes d’utilisateurs et les résultats proposés.

Le but de Google Colibri est de comprendre la demande de l’utilisateur qu’elle soit orale ( sous forme de question dite « parlée » ), ou écrite ( avec mots clés seulement par exemple ). Cet algorithme va tenter de prendre en compte tous les éléments de la requête afin de comprendre son sens et retourner les résultats les plus pertinents. 90% des requêtes seraient concernés dans le monde.

Google Colibri va par exemple se charger des requêtes longues afin d’en comprendre le sens et retourner le résultat le plus pertinent. C’est pour ça qu’aujourd’hui la longue traîne (c’est pas tout à fait exact mais on va faire un raccourci) a de plus en plus d’importance dans le référencement naturel; Google comprend notre requête en tenant compte de tous les mots et non plus seulement des mots clés ‘forts’.

Il reste du travail à Google !

Même si ces algorithmes ont un but précis, la mise en application n’est pas facile pour autant, en effet il n’est pas rare de voir des sites en première page, qui sont piratés et le restent un moment, qui possèdent des pages avec du contenu dupliqué mot pour mot où seule la ville change, ou qui possédent des backlinks plus que douteux etc…
Est ce pour autant que Google approuve la qualité de ces sites ? Difficile à dire, mais on peut penser qu’il est difficile de repérer tous les abus d’un site pour le pénaliser, et que certains sites passent à travers les mailles du filet (Qui est un peu le défi du blackHat). Alors nous vous conseillons de réaliser un site de qualité avec un contenu de qualité, et de suivre les consignes de Google, même si vous pensez que cela n’a aucun effet, Google se perfectionne, et les résultats se font sentir sur le long terme.

Écrit par

Sortant d'un BTS SIO puis d'une licence Pro Conception et Intégration de Services et de Produits Multimédias, passionné des nouvelles technologies. Développeur chez Résonance Communication Agence de Communication à Carcassonne

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *