Titre de l'article: 

Référencement en 15 étapes, bonnes pratiques SEO

sort_des: 

Liste 15 Étapes pour référencer votre site dans les moteurs de recherche. État de l’art du référencement naturel SEO google

Dans la trilogie de l’état de l’art du référencement naturel, après l’historique du référencement, nous allons faire une ébauche d’une check liste des bonnes pratiques en 15 étapes, en grande partie dictée par l’expérience Google. Cette liste SEO, bien entendu, n’est pas exhaustive et ne prend pas en compte les techniques black hat, qui sont à bannir. Le risque d’être black listé ou de végéter dans la sandbox est trop grand !

Cette liste de tâches à accomplir pour référencer votre site fait l’inventaire des techniques mises à notre disposition. Ces consignes concernent la conception et le contenu. Les recommandations techniques et celles relatives à la qualité, viennent en grande partie de Google Wemaster Tools, Site Explorer de Yahoo! et Bing Webmaster Center. Voir aussi les outils nécessaires pour le référencement naturel et les sources d’information.
Meilleures pratiques pour un référencement réussi en 15 étapes :

Avant de lancer le développement, il est important d’identifier les termes utilisés dans la recherche web liés à la thématique du site. Pour cette étape cruciale, voire l'importance des mots clés pour votre site web.

Dans cette section, la sémantique du code est un ensemble de pratiques permettant de rendre le code plus « lisible », en hiérarchisant le contenu mis en forme (Titre principal, sous-titre, texte du contenu, emphase d’un morceau de contenu…). Le nom de domaine, les noms de fichiers, les textes de liens et les documents du site doivent reprendre les mots-clés qui caractérisent l’activité du site

Pour désigner un élément non-textuel (images, animations flash, JavaScript…), les attributs ALT et Title doivent être utilisés de manière convenable et sans exagération. Voire aussi le référencement des images.

L’importance des balises a considérablement diminué et seule la balise Title est véritablement importante pour les moteurs. Il convient de renseigner les balises Keywords, et Description également. Une attention particulière sera portée à la balise Robots qui donne les droits d’indexation. L’utilisation des éléments  Title et Description Subject de Dublin Core Metadata est préconisée

FLASH et AJAX sont de véritables obstacles au référencement des sites web. Les scripts complexes peuvent rebuter les robots. De plus il faut gérer correctement la position des scripts dans les pages web et désactiver les sessions quand le visiteur est un moteur de recherche.

Il est important que toute URL soit propre, unique, intelligible par l’utilisateur et caractérisant le plus possible le contenu de la page. Pour cela, le fichier .htaccess va gérer certains paramètres du serveur tels que les redirections, les réécritures d’URL et les restrictions d’accès. Il faut garder en tête que le duplicate content est très pénalisant en référencement (Tag « rel="canonical" »).

Il faut éviter les pages « not found ou 404 », grâce au .htaccess mentionné ci-dessus. Si des URLs ont été modifiées mais que les pages sont restées les mêmes, utiliser le code « HTTP 301 ».
Les mots qui renseignent sur le contenu de celle-ci. Il est recommandé d’utiliser du texte explicite pour les liens pointant vers une page, en plus de l’utilisation de l’attribut Title.

Le code HTML et les feuilles de style CSS utilisées dans le site doivent respecter les normes établies par le W3C. Pour cela, une validation en ligne est requise.

Il est possible d’utiliser des outils tes que « CSS Optimizer » et « JavaScript Optimizer » en plus des optimiseurs d’images. Google met à notre disposition un outil gratuit « Site speed »,

Il est important de bien concevoir son fichier robots.txt, en indiquant aux différents moteurs les pages à indexer et celles à ne pas prendre en compte. Le plan de site, explicite au format Html reprend les liens du site avec une description brève des pages. Google exige actuellement le sitemap au format XML, de même pour Bing, et  Yahoo! accepte xml ou  txt.

La plupart des moteurs proposent une indexation gratuite par l’ajout de l’Url à leur index. Google, Yahoo! et Bing drainent 92% du trafic. Ne pas omettre Ask et Aol également importants au Canada. Après avoir la soumission aux moteurs connus, il est conseillé d’inscrire le site sur les annuaires bénéficiant d’une bonne popularité, comme DMOZ qui fournit les éléments pour l’annuaire Google.  Privilégier la qualité à la quantité en procédant à une soumission manuelle. 

Le link Building est la stratégie de développement de liens qui a pour effet d'augmenter l'indice de popularité du site. N’omettez pas de recourir au référencement vidéo très payant et profitez des liens gratuits des sites de réseautage . Privilégiez les sites connus et dotés de PR 3 et plus.

Mettre en place des actions de liens sponsorisés permet d’augmenter l’indice de popularité. Dans le cadre d’un effort de référencement naturel, les liens sponsorisés doivent servir à améliorer son positionnement. Il convient donc de viser un public large et de diversifier ses canaux publicitaires en utilisant Google Adwords, Overture et Microsoft adCenter.

Générer et distribuer ses flux de syndication XML au format RSS, Atom. Bien choisir son format.
La mise en place de blog permet d’atteindre les objectifs principaux du référencement naturel, à savoir : visibilité et liens de popularité. Cette entreprise améliore en plus votre référencement en temps réel.
Le social computing est basé sur la création de contextes sociaux grâce à l'utilisation des nouvelles technologies du Web 2.0 : les blogs, les forums, les réseaux sociaux, etc. Avec une campagne de social computing (SMO) sur des réseaux comme Twitter ou Facebook, on peut améliorer sa visibilité et générer des BackLink. Utilisez les communiqués de presse et pour optimiser votre référencement social.

En complément des rapports d’analyse de référencement fournis par des logiciels spécialisés (CEO, IBP, Ranks...etc.), les web analytiques renseignent sur les flux drainés via les sources de trafic : les moteurs, accès directs,  sites référents, E-mailing et abonnements RSS.

  1. Recherche de mots clés
  2. Sémantique et pertinence du contenu
  3. Contenus alternatifs
  4. Renseignent des balises métas
  5. Optimisation du code et scripts
  6. Récriture des URLs
  7. Gestion des liens et pages introuvables :
  8. Respect des normes w3c :
  9. Optimisation de la vitesse du site
  10. Fichier robots.txt et envoi des sitemap
  11. Soumission du site aux moteurs et annuaires
  12. Développement de réseau de liens
  13. Lancement d’une campagne de liens sponsorisés.
  14. Utilisation des outils web 2.0
  15. Mettre en place des outils d’analyse

Il est important d’avoir une idée de la fréquentation des sites concurrents. Alexa et Statbrain ou Trafficestimate vous donneront une bonne estimation relative.
Nous n’avons pas abordé les informations liées à la langue, à l’emplacement du serveur ou le renseignement de Google local. Il faudra contrôler que les efforts de référencement donnent le résultat escompté par rapport à la clientèle ciblée, grâce notamment aux web analytiques.
L’installation d’outils d’analyse de trafic s’impose.  Voir les web analytiques et référencement. Google Analytics est gratuit ainsi que IndexTools  de Yahoo. AT Internet offre Xiti gratuit et propose Analyser solution modulable. Omniture se veut le leader avec son offre SiteCatalyste. Enfin, Piwik un open source puissant fournit les résultats en temps réel.

15 étapes pour le référencement de votre site web