Le Privacy Shield, l'accord sur le transfert de données entre l'Europe et les États-Unis, est revendiqué par 200 entités commerciales, dont Microsoft.

L'Image du jour

Le Privacy Shield, l'accord sur le transfert de données entre l'Europe et les États-Unis, est revendiqué par 200 entités commerciales, dont Microsoft.

Silicon Valley 2016 : Cap sur l'innovation technologique (2e partie)

Dernier Dossier

Silicon Valley 2016 : Cap sur l'innovation technologique (2e partie)

En juin dernier, nous avons passé un peu de temps à San Francisco et dans la Silicon Valley avec une dizaine de journalistes européens pour les derniè...

Restez proche de l'actualité IT

NEWSLETTERS THEMATIQUES

Découvrez nos différentes newsletters adaptées à vos besoins d'actualités IT Pro : Mobilité, Réseaux, Stockages, ...

Abonnez-vous 
FERMER

LMI MARKET

Votre comparateur de prestataires IT : Comparez les devis, Evaluez les prestataires, Trouvez le juste prix!...

Accéder à ce service 

BLOG

Découvrez les contenus exclusifs publiés par les lecteurs du Monde Informatique avec la plateforme LMI Blog...

Accéder à ce service 

COMPARATEUR DE SALAIRE

Partagez votre situation salariale anonymement, consultez les statistiques depuis 2009 et faites vos propres analyses...

Accéder à ce service 

IT TOUR

LMI vous invite à sa Matinée-Débats dans votre région.
Inscrivez-vous

Accéder au site 
FERMER

A propos de ce blog
Chroniques sur le SEO, par Olivier Duffez, consultant en référencement (WebRankExpert), créateur de... lire la suite

Le Monde du SEO

Blog lecteur
Le Monde du SEO

par Olivier Duffez

0
Réagissez Imprimer Envoyer

6 erreurs qui ruinent votre référencement Google (SEO)

Que ce soit par ignorance ou par manque de réactivité face aux changements d'algorithmes de Google, vérifiez que vous ne misez pas sur des stratégies SEO qui vont vous emmener dans le mur ! En voici 6 à éviter à tout prix...

S'obtenir des backlinks artificiels

L'erreur consiste à aller "poser" des liens un peu partout sur des sites dont l'objectif est d'offrir des liens aux SEO (annuaires, sites de soit-disant communiqués de presse, etc.). Avec ces liens, vous augmentez vos risques de "pénalité algorithmique" (Google Penguin, sorti en 2012 et toujours en cours) et même de pénalité manuelle. A priori c'est une histoire de proportion : si vous dépassez un certain seuil (de mauvais liens parmi l'ensemble de votre profil de liens entrants), la pénalité arrive.

A la place, publiez des contenus de haute qualité et faites-en la promo (réseaux sociaux, mailings, partenariats, articles invités) afin d'obtenir des liens de qualité. Au passage, ce n'est pas idiot de surveiller régulièrement vos backlinks (dans Search Console ou plus sérieusement dans des outils tels que Ahrefs, Majestic ou Moz).

Avoir des contenus dupliqués internes

L'erreur consiste à ne pas surveiller son site sur le plan technique et laisser le CMS générer plein de contenus dupliqués. Il y a plein de cas possibles, à vous de les passer en revue ! Voici 12 exemples (tirés de mon dossier spécial contenus dupliqués) :

- indexer son site avec et sans www
- avoir 2 URL pour sa page d'accueil
- avoir 2 URL pour la page 1 (pagination)
- avoir 2 types d'URL indexables (réécrites et classiques)
- ne pas toujours passer les paramètres d'URL dans le même ordre
- inclure seulement parfois des paramètres dans les URL
- indexer la version imprimable
- indexer la version PDF
- inclure la catégorie dans l'URL d'une fiche produit ou d'un article
- avoir plusieurs noms de domaine indexés pour un même site
- faire indexer le site en HTTP et en HTTPS
- faire indexer en desktop des URL du site mobile

Pour les détecter, à part l'analyse manuelle des points précédents, vous pouvez regarder le rapport "Améliorations HTML" situé dans la rubrique "Apparence dans les résultats de recherche" de votre compte Google Search Console.

Pour aller bien plus loin dans la détection et la facilité de résolution des problèmes, faites un audit en ligne RM Tech de votre site (disclaimer : il s'agit de mon outil). Le rapport d'audit vous listera de très nombreux conseils, notamment la liste des pages ayant une balise title ou meta description en doublon, ainsi que les pages dont le contenu est 100% dupliqué.

Faire indexer trop de pages à faible contenu

La course au maximum de pages indexées est une technique du passé ! Aujourd'hui, il faut des pages qui répondent le mieux possible à la demande de l'internaute. Plus vous décevez l'internaute, plus vous augmentez vos risques de pénalité avec l'algorithme Google Panda.

Pour repérer les pages de trop faible qualité, vous devez combiner plusieurs analyses. Pour n'en citer que 2, regardez dans Google Analytics (par exemple les pages à fort taux de rebond, avec le paramétrage du taux de rebond ajusté si votre site est éditorial, ou les pages trop lentes à charger) et dans RM Tech (l'outil vous liste les pages ayant sans doute un contenu trop faible).

Ne pas avoir de version mobile

Vous ne devez pas justifier l'absence de version mobile sur votre site sous prétexte qu'actuellement il y a peu de monde qui consulte le site sur mobile ! C'est peut-être bien précisément car il n'y a pas de version mobile... Et puis Google incite tellement à passer au mobile qu'ils ont décidé de favoriser (sur mobile) les pages compatibles mobiles. Pour l'instant l'impact est faible, mais il pourrait certainement augmenter.

Suivez les conseils de Google et testez vos pages avec cet outil.

Avoir des pages trop lentes

Que vous ayez une boutique en ligne ou un site éditorial, aucun internaute n'apprécie les pages qui mettent trop de temps à se charger. Plus le temps de chargement augmente, plus le taux de conversion s'écroule... et plus vous prenez de risques que Google finisse par pénaliser votre site en termes de référencement. En effet, il s'agit d'un critère officiel depuis 2010.

Pour vous aider à identifier les problèmes, suivez les recommandations de Google et testez vos pages avec son outil PageSpeed Insights. Pour avoir des conseils plus détaillés et en français, utilisez Dareboost, un outil français très pratique.

En plus du temps de chargement (qui concerne les internautes), n'oubliez pas d'optimiser le temps de téléchargement de vos pages (brutes) pour Googlebot. Google Search Console fournit le temps moyen journalier de téléchargement des pages (rapport "Statistiques sur l'exploration" de la rubrique "Exploration"). Pour identifier quelles pages sont vraiment trop lentes, consultez le rapport d'audit RM Tech.

Miser sur le bourrage de mots-clés

Un peu comme vos backlinks qui ne doivent plus être artificiels, vos textes doivent être bien rédigés, adaptés à une lecture web agréable et bien lisible pour l'internaute. Il est totalement inefficace (et même risqué) de faire du bourrage de mots-clés (oubliez définitivement les histoires d'indices de densité).

D'ailleurs, Google développe de plus en plus d'algorithmes visant à mieux comprendre les contenus. On est passé d'une analyse des mots à une analyse des entités, d'où l'intérêt d'aborder dans vos contenus les bons mots, les bonnes expressions et entités associées à votre sujet. Misez dès maintenant sur l'ajout de données structurées (référentiel schema.org) !

Google a également bien progressé dans la compréhension de la requête de l'internaute, y compris les recherches vocales sur mobile. Je peux citer par exemple l'algo Hummingbird sorti en 2013 et RankBrain sorti début 2015 (mais révélé en octobre).

Image Shutterstock, sous licence

Olivier Duffez

Commenter cet article

commenter cet article en tant que membre LMI

CONNEXION

Commenter cet article en tant que visiteur






* Les liens HTML sont interdits dans les commentaires

Publicité