Le référencement naturel est une science exigeante. En effet, entre les centaines de leviers de référencement naturel à actionner, la multitude de paramètres à prendre en compte, et les changements constants dans les bonnes pratiques édictées par Google, nul n’est à l’abri d’une chute brutale du positionnement de ses pages dans les résultats. Voire d’une désindexation pure et simple à la suite d’une pénalité. Or, on le sait : tout ce qui n’est pas affiché en première page de Google est quasiment invisible.
À eux seuls, les trois liens organiques de tête concentrent plus des deux tiers des clics (67,60 %, selon Zero Limited Web). Il est donc indispensable de maîtriser les tenants et aboutissants des algorithmes, et d’éviter les erreurs SEO qui risquent de ruiner un long travail de référencement. Quelles sont donc ces bévues les plus fréquentes, et comment s’en préserver ?
Vous pensez que la notion de « qualité des contenus » est une vaste usine à gaz lancée par Google pour mettre la pression sur les webmasters ? Pas tout à fait. Car, depuis des années (en fait, depuis la mise à jour Panda – voir à ce sujet notre article sur les algorithmes et leur impact sur le référencement naturel), Google établit des grilles précises d’analyse des contenus. Celles-ci servent de base de travail aux Search Quality Raters, dont les avis sont ensuite utilisés pour ajuster les algorithmes de classement et distinguer, en somme, un « bon » contenu d’un « mauvais ».
Ces guidelines, rédigés à destination des évaluateurs, nous donnent une idée de ce qu’attend Google en matière de qualité. Par exemple :
De plus en plus, cette notion de qualité des contenus est mise en avant par Google, avec un impact toujours plus important sur le référencement naturel des pages.
La question de la longueur des contenus (et de la façon dont elle influe sur le référencement naturel des pages) est source de débats sans fin parmi les référenceurs, les marketeurs et les rédacteurs web. Les articles publiés sur votre blog professionnel ont-ils nécessairement besoin d’afficher des milliers de mots ? Des textes de 300 mots ne suffisent-ils pas à optimiser une page, dès lors que les bons mots-clés y sont stratégiquement placés ?
Ce que nous dit la science du SEO depuis plusieurs années, c’est que les contenus plus longs se positionnent mieux sur Google que les articles plus courts.
(Source : Backlinko.com, 2016)
Ce graphique nous montre que :
Cela veut dire que les contenus longs sont considérés par Google comme étant :
Mais attention ! Pas question, pour autant, de doper votre référencement naturel en bombardant les lecteurs de textes de 10 000 mots. Un bon positionnement ne résulte pas seulement d’une débauche textuelle, c’est l’aboutissement d’un faisceau de facteurs complémentaires :
Il se trouve que les articles longs remplissent un plus grand nombre de ces conditions. Et qu’en outre, les sites qui les publient jouissent d’ores et déjà d’une certaine autorité.
Il reste qu’une erreur commune en référencement naturel consiste à ne pas enrichir suffisamment ses pages avec du contenu de qualité. Si un texte de 200 ou 300 mots peut tout à fait se justifier dans certains contextes (page « à propos », fiche produit…), il est toujours préférable, d’un point de vue SEO, de proposer des contenus plus longs. Donc plus riches, qui satisfassent à la fois aux exigences des internautes et à celles de Google.
Aux yeux de Google, rien n’est pire que la mystification. Si les éléments textuels qui entourent votre lien dans les résultats (méta titre et méta description) laissent à entendre à l’internaute qu’il trouvera une réponse A à sa problématique, la page correspondante (une fois le lien cliqué) doit absolument lui apporter cette réponse A. Et non pas une réponse B ou C, et encore moins une autre question D ou un formulaire E.
Ces fausses promesses dans les liens organiques, en plus d’être contre-productives, ont tendance à provoquer l’ire de Google et à impacter négativement le référencement naturel des pages concernées en influant sur leur « Trust ». Soit, l’indicateur qui témoigne du niveau de confiance attribué à une page. Dans ce cas de figure, il y a toutes les chances pour que l’internaute clique immédiatement sur le bouton « retour » de son navigateur, envoyant ce faisant un mauvais signal à Google sous la forme d’une hausse du taux de rebond.
Dans le même ordre d’idée, il faut éviter de laisser des contenus caducs sur votre site web, dont les informations ne sont plus valables ou qui font référence à des événements passés depuis longtemps.
Essentiel, le levier « UX » du référencement naturel est trop souvent négligé par les webmasters. Pourtant, un site offrant une expérience utilisateur médiocre, voire désagréable, risque fort de voir son trafic chuter et ses positions baisser.
De nombreux paramètres entrent en compte quand il s’agit de proposer une UX de qualité :
Prenons l’exemple de la profondeur des pages. Une notion qui fait référence au nombre de clics qu’un internaute doit effectuer pour accéder à une page spécifique depuis l’accueil. En substance, plus une page est profonde, moins elle est accessible, plus ses performances SEO laissent à désirer.
On considère généralement qu’à partir du cinquième niveau de profondeur (quand il faut au moins cinq clics pour accéder à une page), le travail des robots de Google est entravé, et que les pages en question sont mal, voire pas du tout, indexées. À l’inverse, une page directement accessible depuis l’accueil est jugée plus importante. Ce qui a forcément un effet sur le référencement naturel.
Il en va de même pour les internautes, qui ont tendance à lâcher au-delà de trois clics.
(Source : « Analyse de logs, intervention SEO et interprétation par Google », 2019)
Bien que le contenu soit toujours « roi » et que Google s’efforce d’apporter des réponses de plus en plus pertinentes aux internautes (via le machine learning et tutti quanti). Les liens externes continuent de faire partie des leviers de référencement naturel les plus déterminants. En effet, le lien de causalité entre le taux de trafic organique et le nombre de backlinks issus de domaines référents (comprendre : de sites différents) n’est plus à prouver.
(Source : Ahrefs)
Pour Google, l’équation est simple. Plus un site web affiche de backlinks issus de domaines référents, plus il est reconnu par ses pairs. À l’image de l’indice de Hirsch pour les publications scientifiques. Conséquence : son référencement naturel s’en trouve amélioré.
Sachant cela, il est tentant de se procurer des liens externes factices. Soit :
Sauf que les liens ainsi obtenus sont généralement de mauvaise qualité. Ils :
Cette pratique n’est plus tolérée par Google depuis la mise à jour Pingouin, et fait clairement partie des règles SEO qui ne fonctionnent plus.
Au contraire, il est indispensable de mettre en place une stratégie permettant d’obtenir des backlinks de qualité, émanant de domaines qui font autorité. C’est la clé d’un bon référencement naturel.
Si votre site web est concerné par une ou plusieurs des erreurs SEO citées dans cet article, nous vous recommandons de prendre les choses en main sans attendre. Parce qu’il faut du temps pour retrouver des positions perdues, l’algorithme de Google ayant besoin de constater une amélioration significative avant de modifier le placement des pages dans les résultats.
Pour éviter que ces bévues ne plombent votre référencement naturel, vous avez tout intérêt à évaluer régulièrement l’état de santé de votre site internet :
Sans oublier de mener de temps à autre un audit SEO complet !
Visuel d’entête : © Templune – Licence Pixabay