Les facteurs bloquant ou ralentissant le référencement

Facteurs bloquants en SEOPour faciliter le crawl des robots d’indexation et favoriser l’accessibilité sur votre site, il y a certaines règles à respecter. En effet, certaines techniques sont prohibées par Google car elles empêchent tout simplement le passage des bots. Parmi tous ces facteurs bloquants, certains sont complètement rédhibitoires et d’autres seulement déconseillés.

Les URLs compliquées, l’utilisation du Flash ou de l’Ajax, la dissimulation de texte sur une page ou la technique des frames (ou cadres) sont des exemples de facteurs qui peuvent ralentir ou bloquer le référencement d’une page ou d’un site entier.

Les facteurs bloquants sont différents des techniques interdites par Google, qui elles peuvent provoquer des sanctions.

Les URLs contenant trop de paramètres (facteur ralentissant)

Si les URLs de votre site contiennent de plus de 3 ou 4 paramètres dynamiques (? %, $, & =), cela peut constituer un frein pour les robots. Pour corriger ce défaut, il est conseillé de passer par la technique de l’URL Rewriting.
Exemple d’un URL trop compliqué pour les moteurs :

http://www.monsite.com/page.php?id=415&d=51f&cat=cat&rubrique=5

Dans le même esprit, les pages contenant un ID de session ou des informations provenant d’un cookie peuvent ne pas être lues par les robots.

Les « frames » ou « cadres » (facteur ralentissant)

Les frames (ou  cadres en français) servent à afficher plusieurs pages HTML dans des zones différentes. Pour un robot, chaque frame est considéré comme une page incomplète, ce qui peut provoquer une confusion, et pour le moteur, et pour l’internaute.

L’utilisation de Flash et de l’Ajax (facteur ralentissant)

Bien que Google annonce être mesure de lire et d’interpréter les contenus réalisés en Flash ou en Ajax, il est fortement déconseillé d’utiliser ces technologies car, dans en réalité, il est rarissime de voir remonter dans les résultats de recherche (SERP) un contenu codé en Ajax ou en Flash.

Les pages trop profondes (facteur ralentissant)

Les robots crawlent un site web à travers les liens qu’il contient, cependant, si une page possède un trop grand nombre de liens (des centaines) ou si certaines pages ne sont accessibles qu’au bout d’un trop grand nombre de clics (3 ou plus), il se peut que toutes ce pages ne soient pas trouvées et donc pas indexées.

Les pages bloquées (facteur bloquant)

Il est possible d’empêcher intégralement l’indexation d’une page et ce, même si elle reçoit des liens entrants, grâce à la balise Meta noindex.

La ligne suivante empêche l’indexation de la page par tous les robots :

<meta name="robots" content="noindex">

La ligne suivante empêche l’indexation de la page uniquement par le Google bot :

<meta name="googlebot" content="noindex">

Il est aussi possible d’interdire le crawl d’une page à partir du fichier robots.txt mais attention, Google explique qu’il est néanmoins possible que l’URL de cette page soit tout  même indexée notamment si elle reçoit des liens entrants.

Les pages bloquées par des formulaires (facteur bloquant)

Si vos pages ne sont accessibles que par le biais d’un formulaire dynamique (Javascript, DHTML, etc.), il est probable qu’elles ne soient pas crawlées.

Techniques interdites pénalisantes

D’autres techniques dites pénalisantes peuvent s’avérer bloquantes comme la méthode du cloaking. Elle est considéré comme pénalisante car elle a pour objectif de tromper les moteurs de recherche. Il s’agit en fait de présenter une page différente pour le moteur de recherche et pour le visiteur.

Quels autres paramètres techniques SEO peuvent être optimiser ?

Après avoir supprimer tous les facteurs bloquant, il est important de favoriser l’accessibilité des pages de votre site.
Continuez votre apprentissage en comprenant l’utilité des microdonnées d’une page.
Approfondissez le thème des données structurées avec les balises métadonnées.
Créez ensuite des balises Title performantes et efficaces.
Votre contenu est-il bien hiérarchiser ? Apprenez-en plus sur les balises de titre HTML.
Enfin, apprenez à correctement optimiser l’URL d’une page.

Vous voulez mettre en place une vraie stratégie de référencement et augmenter votre trafic ?