Le guide pour apprendre à référencer son site web
Publié le 12 juin 2012 par Laurent Bourrelly
Dernière mise à jour le 26 avril 2019 par Manuel
Après vous avoir fourni il y a quelques temps les 11 conseils pour bien référencer son site internet, voici le guide complet du référencement pour référencer et positionner votre site Internet. Tout savoir sur l’art et la manière de concevoir et propulser un site sur les résultats des moteurs de recherche, notamment avec Google qui représente 94% des recherches en France.
Voici les fondamentaux du référencement qui vous permettrons d’appréhender au mieux les techniques de bases liées à l’optimisation d’un site Internet pour les moteurs de recherche. Les conseils que vous allez découvrir sur cet article sont absolument pérennes dans le temps, car ils constituent la base immuable de toute stratégie de référencement viable.
Le but du guide du référencement :
Ce guide a pour but de vous aider à :
- Construire votre site dans les règles de l’art,
- Indexer les pages durablement,
- Optimiser vos chances de figurer dans les meilleures positions,
- Auditer vos concurrents,
- Effectuer la veille nécessaire afin de suivre l’évolution des techniques.
Qu’est ce que le référencement ?
Pourquoi le site Internet de votre société a besoin de référencement ?
La majorité du trafic Web international vient des principaux moteurs de recherche : Yahoo, Bing, Qwant et Google. Si votre site ne peut pas être trouvé dans les premiers résultats des moteurs de recherche ou même si on ne le trouve pas du tout dans leurs index vous passez à côté des incroyables opportunités qui sont disponibles aux sites que l’on trouve dans les pages des résultats de recherche. Que votre site propose du contenu, des services, des produits ou de l’information, ce sont les moteurs de recherche qui vous apporteront le plus de visibilité.
Les requêtes (termes et mots clés tapés dans les moteurs par les internautes) qui contiennent des termes et des phrases qu’on retrouve sur votre site sont d’une valeur inestimable. L’expérience montre que la visibilité dans les moteurs peut faire ou défaire le succès d’un site Internet. Les visiteurs ciblés de votre site peuvent vous procurer de la publicité, des revenus et de la visibilité de manière incomparable. L’investissement dans le référencement, que ça soit en termes de temps ou d’argent, peut avoir un taux de retour exceptionnel.
Pourquoi les moteurs ne peuvent pas trouver mon site sans aide du référencement ?
Les moteurs de recherche travaillent en permanence à l’amélioration de leur technologie, afin de visiter (on utilise communément le terme crawler issu de l’Anglais to crawl) Internet de plus en plus en profondeur, et de retourner des résultats de recherche de plus en plus pertinents. Cependant, il existera toujours une limite à la façon dont les moteurs opèrent. Alors que les bons choix peuvent attirer des milliers de visiteurs, il faut comprendre que les mauvais choix peuvent enterrer votre site profondément dans les résultats de recherche (dès lors votre visibilité est nulle). En plus de rendre votre contenu disponible aux moteurs, le référencement peut aider à améliorer votre positionnement afin que les visiteurs trouvent votre site plus facilement. Internet devient de plus en plus concurrentiel et les sociétés de référencement possèdent donc un avantage décisif.
Quelles parties de cet article dois-je lire ?
Si vous désirez accroître votre trafic Internet et que vous n’êtes pas familier avec les techniques de référencement, nous vous recommandons de lire ce guide du début à la fin. Ce guide est long, mais nous avons fait un effort afin d’éviter les phrases redondantes et inutiles.
Chaque section et chaque sujet de ce rapport sont vitaux pour comprendre les techniques d’optimisation de site les plus connues et les plus efficaces.
Comment fonctionne un moteur de recherche ?
Facteurs ralentisseurs et bloquants
Certains éléments techniques d’un site Internet peuvent empêcher les moteurs de trouver le contenu des pages. Un bot crawle le réseau Internet et se base sur l’architecture des liens hypertextes afin de trouver de nouveaux documents et de revisiter ceux qui ont peut-être été modifiés. Parmi les facteurs bloquants les plus courants on peut citer les URLs complexes et la structure profonde avec un contenu unique minimal. Parfois, les données ne peuvent être trouvées par le bot qui se retrouve littéralement devant un mur.
Facteurs ralentisseurs pour les moteurs de recherche :
- URLs avec plus de 2 paramètres dynamiques, par exemple : http://www.url.com/page.php?id=4&CK=34rr&User=%Tom% (les bots peuvent être peu disposés à crawler des URLs trop complexes parce qu’elles retournent parfois des erreurs pour les visiteurs « non humains »).
- Les pages qui contiennent plus de 100 liens vers d’autres pages peuvent donner comme résultat le fait que tous les liens ne soient pas suivis. Attention donc aux méga-menus et gros footers qui maillent très souvent toutes les pages entre elles !
- Les pages enterrées à plus de 3 clics de profondeur (3 niveaux de répertoires) depuis la page d’accueil d’un site Web. A moins qu’il n’y ait de nombreux liens externes qui pointent vers ces pages on voit souvent les bots ignorer ces pages profondes.
- Les pages qui demandent un ID de session ou un cookie afin de permettre la navigation (les bots peuvent être incapables de retenir ces éléments bien qu’un navigateur Web le puisse).
- Les pages qui sont construites sous forme de « cadres » ou « frames » peuvent empêcher les bots de crawler le contenu et peuvent aussi provoquer une confusion sur le choix de la page à retourner dans les résultats de recherche.
Facteurs bloquants possibles pour les bots des moteurs de recherche :
- Pages accessibles seulement via un formulaire ou un bouton de soumission.
- Pages qui demandent un formulaire de type “drop down”.
- Documents accessibles seulement via un champ de recherche
- Documents bloqués sciemment via la meta tag “robots” ou le fichier robots.txt
- Pages qui demandent une identification par login et/ou mot de passe.
- Pages qui sont redirigées avant de montrer le contenu (on appelle cela du cloaking, mais l’utilisation de cette technique peut entraîner un bannissement de l’index d’un ou plusieurs moteurs. On appelle ce bannissement le blacklistage).
La clé pour s’assurer que le contenu d’un site est complètement crawlable est de proposer des liens HTML directs vers chaque page que vous voulez faire indexer par les moteurs. Il faut se rappeler que si la page n’est pas accessible (directement ou indirectement) depuis la page d’accueil (point de départ le plus plausible pour un bot) il est probable qu’elle ne sera pas indexée. Un plan du site peut être d’une aide sérieuse pour pallier ce problème.
Mesurer la pertinence et la popularité
Les moteurs de recherche modernes se basent sur la technologie de la recherche d’information. Cette science existe depuis le milieu du XXe siècle, quand les systèmes de recherche d’information équipaient les ordinateurs des librairies, centres de recherche et laboratoires gouvernementaux. Très tôt, les chercheurs ont réalisé qu’il existait 2 composants essentiels à toute fonction de recherche :
Pertinence
Le degré qui définit la façon dont un document retourné par une recherche est en corrélation avec la requête et les intentions de l’utilisateur. La pertinence d’un document augmente si les termes ou la phrase de la requête se répètent de nombreuses fois dans le document et plus spécialement dans les titres et les en-têtes. Il est aussi importants de traiter le champ lexical associé aux termes et mots clés ciblés.
Popularité
L’importance relative mesurée par les citations (l’acte d’un document qui référence un autre document, comme cela est couramment le cas dans les documents académiques ou commerciaux). La popularité d’un document augmente avec chaque autre document qui fait référence au premier.
Ces 2 éléments ont été transmis, 40 ans plus tard, à la recherche d’information en ligne. Ils se manifestent sous la forme d’analyse de liens et de documents.
Dans l’analyse de document, les moteurs de recherche regardent si les termes de la requête sont trouvés dans les parties « importantes » du document (title, meta, en-têtes, titres hn et texte du body). Ils essaient aussi de mesurer automatiquement la qualité du document grâce à des systèmes complexes tels que Google Rankbrain.
Dans l’analyse de lien, les moteurs de recherche mesurent qui fait des liens vers un site ou une page, mais aussi ce que la page ou le site raconte à propos du site lié. Ils ont aussi une très bonne idée de qui est affilié avec qui, grâce à l’historique-donné de liens, registre du site (WHOIS) et à partir d’autres sources. Ils savent qui est de bonne réputation (des liens depuis des .edu ou .gov sont généralement plus valables pour cette raison). Enfin, ils peuvent prêter attention aux données contextuelles du site qui héberge la page auditée (qui fait des liens vers ce site, ce qu’ils en disent, la sémantique,etc.).
L’analyse de lien et de document combine des centaines (milliers) de paramètres qui peuvent êtres individuellement mesurés et filtrés au travers des algorithmes de moteurs de recherche (le set d’instructions qui dit au moteur l’importance qu’il faut assigner à tel ou tel facteur). L’algorithme détermine le score des documents et retourne les résultats par ordre décroissant en fonction de l’importance (ranking).
L’information qui donne confiance aux moteurs de recherche
Donner de la confiance aux moteurs de recherche
Tandis que les moteurs de recherche indexent les structures de liens et le contenu des pages du réseau Internet, ils trouvent deux formes distinctes d’information au sujet d’un site ou d’une page en particulier : les attributs de cette page ou de ce site, et les descriptions qu’en font les autres pages. Comme le Web est devenu largement commercial, les moteurs ont vite appris qu’ils ne pouvaient pas avoir entièrement confiance en les sites eux-mêmes pour juger de leur importance. De ce fait, le temps des pages Web où les meta tags et le contenu artificiellement truffés de mots-clés dominaient les résultats de recherche (avant 1998) est révolu. Désormais, les moteurs mesurent la confiance d’un site via sa structure technique, ses contenus et les liens qu’il reçoit.
C’est désormais quand les liens proviennent de sources de confiance que la valeur du lien est décuplée. Des liens depuis des sites comme NYTimes.com, Yale.edu, Whitehouse.gov et bien d’autres portent un capital confiance auprès des moteurs de recherche. Des liens de cette catégorie ne peuvent qu’améliorer le positionnement de votre site. D’un autre côté, si les liens qui pointent vers votre site sont de mauvaise qualité ou appartiennent à un réseau de sites, il est fort probable que ces liens seront dévalués.
Ce système, qui se base sur l’analyse des liens et qui est le plus connu pour classer les sites, a été développé par les fondateurs de Google. Cette échelle de notation se nomme le Page Rank et il se fonde sur un calcul décrit par Google dans leur section technologie.
Le Page Rank repose sur la nature démocratique du Web qui utilise une vaste structure de liens comme indicateur de la valeur unique d’une page Web. En résumé, Google interprète un lien d’une page A vers une page B comme un vote depuis la page A vers la page B. Cependant, Google va plus loin que le simple volume de vote ou liens qu’une page reçoit. Il analyse aussi la page qui donne ce vote. Si les votes sont donnés par des pages qui sont « importantes » alors cela pèse plus et cela aidera à rendre d’autres pages « importantes ».
Le Page Rank provient du nombre de liens pointant vers une page, en prenant en compte la valeur du Page Rank transmise (qui est basé sur le Page Rank de la page liante) et de calculs issus de la formule mathématique, comme l’explique Ian Rogers.
Pour résumer Le Page Rank
Il mesure la force brute des liens entrants d’un site, basée sur chaque lien qui pointe vers celui-ci, sans porter d’importance significative à la qualité, la pertinence ou la confiance. Dans l’ère moderne du référencement le Page Rank affiché par la Google Toolbar est de valeur limitée. Des pages de PR8 peuvent se trouver dans les positions 20 à 30 et loin derrière des PR3 ou PR4. De plus, les chiffres de la Google Toolbar sont mis à jour tous les 3 à 6 mois par Google, rendant sa valeur encore moins efficace. Plutôt que de focaliser sur le Page Rank il est important de penser à la valeur intrinsèque d’un lien.
A savoir qu’à ce jour, Google ne nous affiche plus son Page Rank !
Voici les conseils les plus efficaces pour valoriser un lien aux yeux des moteurs de recherche :
- L’Anchor Text du lien : l’anchor text décrit les caractères et mots visibles sur un lien hypertexte d’un document sur le web. Par exemple, dans la phrase « CNN est une bonne source d’actualités, mais je préfère la façon dont BBC approche les événements, » il y a 2 éléments uniques d’anchor : « CNN » et « BBC approche les événements« . Les moteurs de recherche utilisent ce texte pour aider à déterminer le sujet du document lié. Dans l’exemple précédent, les liens disent au moteur de recherche que lorsque les utilisateurs recherchent « CNN », le site est pertinent. Si des centaines ou milliers de sites pensent que cette page en particulier est pertinente pour le set donné de termes, cette page peut espérer se positionner convenablement, même si les termes de la requête n’apparaissent JAMAIS dans le texte de la page.
- Popularité globale du site : les sites populaires, caractérisés par le nombre et la puissance des liens qui pointent vers lui, procurent des liens plus puissants. Ainsi, pendant qu’un lien depuis SEOmoz peut être une note valable pour un site, un lien depuis bbc.co.uk ou cnn.com portent un poids supérieur. C’est un domaine où le Page Rank (en assumant qu’il soit précis) peut-être un bon indice puisqu’il est conçu pour calculer la popularité globale.
- Popularité du site dans une communauté pertinente : dans l’exemple précédent, le poids ou la puissance du vote d’un site est basé sur la popularité basique au travers du web. En devenant plus sophistiqués dans leur analyse d’un lien, les moteurs de recherche reconnaissent l’existence de « communautés thématiques ». Les sites qui traitent du même sujet se lient souvent entre eux, faisant référence à des documents et proposant des données uniques sur un sujet particulier. Les sites dans ces communautés procurent plus de valeur quand ils font un lien vers un site ou une page sur un sujet proche ou similaire plutôt que vers un site qui est de thématique totalement différente.
- Texte entourant le lien : Les moteurs de recherche portent plus de poids au texte qui entoure le lien que le reste du texte sur la page. Ainsi, un lien depuis l’intérieur d’un paragraphe porte plus de poids qu’un lien dans une partie commune à tout le site (le menu, le sidebar, le footer, etc).
- Thématique de la page qui fait le lien : la relation inter-thématique entre le sujet d’une page donnée et les sites ou les pages qui lui font un lien peut aussi être un facteur dans la valeur que les moteurs de recherche assignent au lien. Ainsi, il est plus intéressant d’obtenir des liens provenant de pages de thématique similaire ou complémentaire, plutôt que de pages qui n’ont rien à voir avec le sujet. Pour visualiser la thématique d’un site, reçue par ses liens, nous vous recommandons d’utiliser le Topical TrustFlow de Majestic SEO.
Les paramètres ci-dessus sont simplement quelques-uns des nombreux paramètres que la plupart des moteurs de recherche pondèrent lorsqu’ils évaluent les liens.
La pondération des liens existe afin que les moteurs de recherche puissent trouver de l’information pertinente en suivant les liens. Dans le monde académique, les citations de valeur ont un poids important, mais dans un environnement commercial les manipulations et les enjeux conflictuels interfèrent avec la pureté de la mesure, basée sur la validité de l’information. Ainsi, dans le Web moderne, la source, le style et le contexte des citations sont essentiels afin de s’assurer de la qualité des résultats.
Anatomie d’un hyperlien
Un hyperlien standard en code HTML peut ressembler à ceci :
<a href= »http://www.seomoz.org »>SEOmoz</a>
Dans cet exemple, le code indique simplement que le texte “SEOmoz” (qu’on appelle “anchor text” du lien) fait un lien hypertexte vers la page http://www.seomoz.org. Un moteur de recherche peut interpréter ce code comme un message signifiant que la page qui contient ce code indique que la page http://www.seomoz.org est pertinente par rapport au texte sur la page et particulièrement pertinente pour le terme “SEOmoz”.
Un exemple plus complexe de code HTML pour un lien peut inclure des attributs plus évolués comme :
<a href= »http://www.seomoz.org » title= »Rand’s Site » rel= »nofollow »>SEOmoz</a>
Dans cet exemple de nouveaux éléments sont apparus, comme le titre du lien et l’attribut “rel”. Ces éléments peuvent influencer la façon dont un moteur de recherche évalue le lien, même si son apparence sur la page ne change pas. L’attribut “Title” sert à inclure des éléments additionnels d’information, afin d’informer les moteurs que le site http://www.seomoz.org est pertinent pour le terme “SEOmoz” mais aussi pour la phrase “Rand’s Site”. L’attribut “rel” est conçu pour décrire la relation entre la page qui émet le lien et la page qui reçoit le lien. Avec l’apparition du “nofollow” il est évident que l’attribut “rel” est devenu plus complexe.
« Nofollow » est un tag conçu pour les moteurs de recherche. Quand l’attribut “rel” est ajouté à un lien cela indique à l’algorithme du moteur qu’il ne faut pas considérer ce lien comme un “vote” approuvé vers la page liée. Aujourd’hui les 3 principaux moteurs (Google, Yahoo et Bing) approuvent le “nofollow”.
Certains liens peuvent être assignés à des images plutôt qu’à des textes :
<a href= »http://www.seomoz.org/team/randfish »><img src= »rand.jpg » alt= »Rand Fishkin of SEOmoz »></a>
Cet exemple montre une image intitulée “rand.jpg” faisant un lien vers la page http://www.seomoz.org/team/randfish. L’attribut “alt” est conçu à l’origine pour décrire l’image quand elle est lente à charger, ou pour les navigateurs vocaux des non-voyants. Dans l’exemple et avec certains navigateurs, on peut lire “Rand Fishkin de SEOmoz” en passant la souris sur l’image. Les moteurs de recherche peuvent utiliser cette information, pour interpréter le nom de l’image et la page qui est liée.
D’autres types de liens peuvent être utilisés sur le Web :
La majorité ne transmettent pas de popularité et/ou ne permettent pas d’êtres suivis à cause de l’utilisation de redirection Javascript ou autre technologie. Un lien qui ne contient pas le format classique <a href=”URL”>texte</a>, que ce soit un lien texte ou image, doit être considéré comme suspect quand il s’agit de transmettre de la popularité via les moteurs de recherche (hormis dans des cas exceptionnels où les moteurs arrivent à suivre ces styles de liens plus complexes).
<a href= »redirect/jump.php?url=%2Fgro.zomoes.www%2F%2F%3Aptth » title= »http://www.seomoz.org/ » target= »_blank » class= »postlink »>SEOmoz</a>
Dans cet exemple, la redirection mélange l’URL en l’écrivant à l’envers, mais la remet en ordre plus tard à l’aide d’un script qui renvoie le visiteur vers le site. Cela ne transmet aucune valeur au niveau d’un moteur de recherche.
<a href= »redirectiontarget.htm »>SEOmoz</a>
Cet exemple montre qu’un simple code Javascript appelle une fonction référencée dans le document pour sortir une page spécifique. L’utilisation créative du Javascript ne passera aucune valeur au lien pour un moteur de recherche.
Il est important de comprendre que les moteurs peuvent (ou ne peuvent pas), en se basant sur l’anatomie du lien, interpréter et utiliser les données. Alors que les liens conçus convenablement peuvent apporter un poids important, les liens mal façonnés seront inutiles pour des finalités de référencement.
Mots clés et requêtes
Les moteurs de recherche utilisent les termes tapés par les utilisateurs pour déterminer quel résultat entrer dans l’algorithme, ordonner et ressortir. Plutôt que de simplement reconnaître et analyser des concordances exactes pour les termes de recherche, les moteurs de recherche utilisent leur connaissance de la sémantique (la science du langage) pour construire des concordances intelligentes en retournant des requêtes pertinentes. Un exemple pourrait être une requête “organismes de crédit” qui retourne des résultats de recherche qui ne contiennent pas cette requête spécifique, mais plutôt qui contiennent le terme “banques”.
Les moteurs collectent des données basées sur la fréquence d’utilisation des termes et les co-occurrences des mots et phrases au travers du web. Si certains termes ou phrases sont souvent trouvés ensemble sur des pages ou des sites, les moteurs de recherche peuvent construire des théories intelligentes à propos de leurs relations. En explorant les données sémantiques au travers de l’incroyable corpus qu’est Internet, les moteurs de recherche ont absorbé des données inestimables, à propos des mots et des connections entre les mots assemblés artificiellement. Cette immense connaissance du langage et son utilisation permettent de connaître la thématique de la page, les autres pages du site en relation avec la thématique, comment la structure des liens connecte les communautés à thématique similaire ou complémentaire, etc.
La progression de l’intelligence artificielle des moteurs de recherche au sujet du langage signifie que les requêtes retourneront des résultats de plus en plus évolués. L’investissement élevé dans la technique de process de langage naturel (NLP) aide à mieux comprendre la signification et les intentions des requêtes des utilisateurs. Sur le long terme, les utilisateurs peuvent espérer que les résultats de ce travail produisent une pertinence améliorée dans les résultats de recherche, et des suggestions plus précises de la part des moteurs en réponse à leurs intentions.
Ne pas mélanger les torchons et les serviettes
Dans le monde idéal de la recherche d’information, quand les intérêts commerciaux n’existaient pas dans l’index, les moteurs pouvaient utiliser des algorithmes simplistes pour retourner des résultats de recherche de grande qualité. Aujourd’hui ce n’est plus la même histoire. Les intérêts commerciaux présents dans les résultats de recherche sont un souci constant pour les moteurs. En fait, des milliers de référenceurs manipulent les paramètres propres au référencement pour prendre position en tête de résultats.
La pire espèce de résultat est le “search spam” qui consiste à présenter des pages sans contenu de valeur, et redirigeant vers d’autres pages, principalement commerciales. Le contenu de ces pages cachées peut être simplement une liste de lien, du contenu repiqué ailleurs, du contenu optimisé pour des mots-clés, etc. Les moteurs focalisent sur ce type de page pour essayer de les retirer de l’index. Naturellement, les possibilités de gain monétaire (qui sont similaires au spam par email) sont un attrait malgré le fait que peu de visiteurs cliquent sur chaque page, car il faut noter que la masse de pages est telle que les gains possibles sont conséquents.
D’autre type de spam peut aller du site qui est de basse qualité, aux pages qui contiennent de nombreux liens d’affiliations en passant par les sites commerciaux de qualité qui focalisent sur une structure de liens efficace. Les moteurs préféreraient aussi ne pas indexer ces sites. En fait, les moteurs de recherche focalisent sur le nettoyage en profondeur de tout type de manipulation et ils espèrent, un jour, proposer des algorithmes organiques parfaitement pertinents afin de déterminer le classement des résultats de recherche. Les spammeurs sont engagés dans une bataille constante avec les moteurs qui combattent les pratiques de triche.
Ce guide n’explique pas comment manipuler les résultats de recherche afin d’obtenir un bon positionnement, mais plutôt sur la façon de concevoir un site que les moteurs de recherche et les utilisateurs vont être ravis de voir positionné en permanence dans les meilleurs résultats de recherche grâce à leur pertinence, la qualité de contenu et leur ergonomie.
Liens commerciaux et sources secondaires dans les résultats
Les résultats de recherche d’un moteur contiennent des documents qui sont retournés organiquement en fonction de la requête de l’utilisateur, mais aussi d’autres types de contenu comme les liens commerciaux et des sources de résultats secondaires. Par exemple, chez Google, les résultats contiennent des liens du fameux programme Google Ads (qui représente plus de 90% des revenus de Google) ainsi que du contenu secondaire comme local search.
Les sites et les pages listés dans les résultats organiques reçoivent la majorité des visites de la part des utilisateurs et de la visibilité – entre 60 et 70% dépendant de facteurs comme le nombre de liens commerciaux et de contenu secondaires, etc… Les campagnes de liens commerciaux demandent de bonnes connaissances afin de cibler les bonnes requêtes, définir parfaitement les annonces, etc. Tout cela dépasse le cadre de ce guide, qui se focalise sur les résultats organiques.
Comment définir les mots clés à cibler ?
Les outils d’analyse de mots clés
Aujourd’hui, les trois sources les plus populaires pour la recherche de mots sont :
- SEMrush : base de mots-clés internationale
- Ranxplorer : base de mots-clés FR
- Yooda Insight : base de mots-clés FR
Aucune source n’est exempte de défaut et chaque outils a ses points forts et ses points faibles. Cela reste de l’estimation.
Cibler les bons termes
Le ciblage de termes est essentiel et implique plus que la simple mesure du niveau de trafic et du choix des mots-clés les plus tapés. Une méthode intelligente de choix de mots-clés implique de cibler :
- Trafic organique estimé : le nombre de visites estimé en fonction du positionnement et du volume de recherche.
- Tendance : les tendances de recherches sur l’année.
- Volume de recherche : le nombre de recherches mensuelles estimées sur Google
- Résultats : le nombre de résultats présents sur Google.
- La concurrence : une mesure grossière de l’environnement concurrentiel et du niveau de difficulté pour une requête donnée. Cela veut dire qu’il faut estimer le nombre de concurrents, la force de ceux-ci et la motivation financière pour pénétrer le secteur.
Après avoir analysé chacun de ces paramètres, vous pourrez décider efficacement quels termes ou phrases il vaut mieux cibler. Quand vous commencez un nouveau site, il est fortement recommandé de cibler uniquement une ou deux requêtes par page. Bien sûr, il est possible d’optimiser plusieurs termes, mais il est toujours préférable de séparer les requêtes selon les pages afin de différencier parfaitement les thématiques. Alors que le site grandit et devient plus populaire, il est plus facile de cibler plusieurs termes par page.
La recherche de la « Longue Traîne » (« Long Tail »)
Le concept de la « Longue Traîne » émane de Chris Anderson (éditeur en chef de Wired Magazine et bloggeur).
Sa définition est la suivante :
La théorie de la Longue Traîne implique que notre culture et notre économie sont en train de s’éloigner d’une focalisation sur le nombre restreint de « hits » (produits et marchés courants) à la tête de la courbe de la demande, vers un nombre important de niches qui se placent à la queue de la courbe. Pendant que le coût de la fabrication et de la distribution baisse, particulièrement en ligne, il y a moins de besoin de produits uniformes et généraux qui répondent à la demande générale. Dans une ère sans contrainte de boutique physique et autre impasse au niveau de la distribution, les produits qui ciblent étroitement des biens et des services peuvent être aussi ou plus attractifs que le courant principal.
Ce concept se compare parfaitement à la recherche de mots-clés dans les principaux moteurs de recherche. Pendant que la vaste majorité du trafic se pose à la tête de la courbe du mot clé pour des termes généraux, il faut savoir que la vraie valeur se porte sur les milliers de niches uniques et rarement ciblés. Ces termes offrent un taux de conversion exceptionnel ainsi que des visiteurs largement qualifiés puisque les termes spécifiques qu’ils ont tapés sont en relation directe avec des produits ou services que votre site propose.
Les paramètres essentiels de l’optimisation d’un site
Accessibilité
Un site accessible délivre son contenu avec succès aussi souvent que possible. Les fonctionnalités des pages, la validité des éléments HTML, le temps de réponse du serveur du site et le statut fonctionnel du codage du site sont très importants. Si ces dispositifs sont ignorés ou défectueux, les moteurs de recherche et les utilisateurs choisiront d’autres sites à visiter.
Les plus gros problèmes que rencontrent la plupart des sites en matière d’accessibilité sont les suivants :
- Liens brisés : si un lien HTML est brisé, le contenu du lien peut n’être jamais trouvé. En outre, il est probable que les moteurs de recherche dévaluent le Page Rank sur des sites et des pages avec beaucoup de liens brisés.
- HTML valide et CSS : bien que les arguments existent au sujet de la nécessité d’une totale conformité du HTML et du CSS selon les directives du W3C, on convient généralement que le code doit répondre à des exigences minimales de fonctionnalité et d’affichage réussis, afin d’être parcouru et indexé correctement par les moteurs de recherche.
- Fonctionnalité des formulaires et des applications : si des formulaires de soumission, des boutons de sélection, du javascript, ou d’autres éléments type « entrée obligatoire » bloquent l’accès direct au contenu, les moteurs de recherche peuvent ne jamais le trouver. Réservez les données que vous voulez accessibles aux moteurs de recherche à des pages qui peuvent être directement consultées par l’intermédiaire d’un lien. Dans un même esprit, la fonctionnalité et l’exécution réussie de n’importe laquelle de ces parties est essentielle pour l’accessibilité d’un site aux visiteurs. Une page, un formulaire, ou un élément de code dysfonctionnel est peu susceptible d’attirer les internautes.
- Taille de fichiers : exceptée une petite sélection de documents que les moteurs de recherche considèrent comme d’importance exceptionnelle, les pages web de plus de 1Mo ne sont généralement pas entièrement indexées. Ceci est fait pour réduire la taille des index, la largeur de bande, et la charge sur les serveurs, et parce qu’il est important pour tout le monde de créer des pages avec la plus grande quantité de contenu possible. S’il est indispensable que chaque mot et expression soient parcourus et indexés, garder une taille de fichier inférieure à 200Ko est fortement recommandé. Comme avec n’importe quelle action en ligne, un plus petit volume de fichier signifie également une vitesse plus rapide de téléchargement pour les utilisateurs.
- Temps d’attente et vitesse de serveur : l’exécution du serveur de votre site peut avoir un impact défavorable sur votre classement dans les résultats de recherche et sur les visiteurs. Si votre site rencontre des temps d’attente et des vitesses de transfert faibles, investissez dans un hébergement de meilleure qualité pour éviter les problèmes.
Régler ces questions techniques vous évitera des problèmes avec les moteurs de recherche et les visiteurs vers et à travers votre site.
URLs, balise Titre, et méta-description
URLs, balises titres et balises méta-descriptions sont les composantes qui contiennent toute l’information qui décrit votre site et vos pages aux visiteurs et aux moteurs de recherche. Les maintenir pertinentes, rigoureuses et précises est la clé d’un bon classement. Vous pouvez également employer ces balises comme emplacement pour vos mots-clés : les classements réussis exigent leur utilisation.
L’URL d’un document devrait idéalement être aussi descriptive et brève que possible. Si, par exemple, la structure de votre site a plusieurs niveaux de fichiers et de navigation, l’URL reflète ceci avec des dossiers et des sous-dossiers. Les URLs des pages individuelles devraient également être descriptives sans être excessivement longues, de sorte qu’un visiteur qui voit seulement l’URL puisse avoir une bonne idée du contenu de la page. Plusieurs exemples à suivre :
Comparaison d’URLs pour un appareil photo Powershot SD400 de Canon
Amazon.com : http://www.amazon.com/gp/product/B0007TJ5OG/102-8372974-
4064145?v=glance&n=502394&m=ATVPDKIKX0DER&n=3031001&s=photo&v=glance
Canon.com : http://consumer.usa.canon.com/ir/controller ?
act=ModelDetailAct&fcategoryid=145&modelid=11158
DPReview.com : http://www.dpreview.com/reviews/canonsd400/
Avec Canon et Amazon, un utilisateur n’a pratiquement aucune idée de l’endroit où l’URL pourrait l’envoyer. Cependant, avec l’URL logique de DPReview, il est facile de déduire que l’examen d’un Canon SD400 est le sujet probable de la page.
Vos URLs, en plus d’être courtes et claires, devront contenir le moins de paramètres dynamiques possibles. Un paramètre dynamique est une partie de l’URL qui fournit des données à une base de données ainsi que les enregistrements appropriés dans lesquelles elles peuvent être recherchées, par exemple : n=3031001, v=glance, categoryid=145, etc.
Notez que dans les URLs d’Amazon et de Canon, les paramètres dynamiques sont au nombre de 3 ou plus. Dans un contexte idéal, il ne devrait jamais y en avoir plus de deux. Des analyses de recherches représentatives ont confirmé à de nombreuses occasions que des URLs avec plus de 2 paramètres dynamiques peuvent ne pas être parcourues et indexées à moins qu’elles ne soient perçues comme sensiblement importantes (c’est-à-dire avec beaucoup, beaucoup de liens pointant vers elles).
Les URLs bien écrites ont l’avantage supplémentaire d’être leur propre « anchor text » une fois copiée et collée comme liens dans les forums, les blogs, ou autres emplacements en ligne. Dans l’exemple de DPReview, un moteur de recherche pourrait voir l’URL : http://www.dpreview.com/reviews/canonsd400/ et donner une plus-value de classement à la page pour des termes dans l’URL comme dpreview, reviews, canon, sd, 400. L’analyse et la casse des termes sont sujettes à l’analyse du moteur de recherche, mais la chance de gagner des plus-values additionnelles se crée en écrivant des URLs conviviales et intelligibles.
Les balises titres, en plus de leur utilisation d’une valeur inestimable comme emplacement pour des mots-clés de requêtes, peuvent également vous aider à diriger vers vous les clic-through-rates (CTRs) des pages de résultats. La plupart des moteurs de recherche emploieront la balise titre d’une page comme lien hypertexte bleu et le titre comme résultat (voir l’image suivante). Il est important de les faire informatives et rigoureuses sans être excessivement « commerciales ». Les meilleures balises titres mettront les mots-clés en valeur, elles aideront le site à se démarquer, et seront aussi claires et concises que possible.
Exemples et recommandations pour des balises Titres
Page sur les Red Panda (pandas rouges) du Wellington Zoo (Zoo de Wellington) :
– Titre Courant : Red Panda
– Recommandé : Red Panda – Habitat, Features, Behavior | Wellington Zoo
Page sur Alexandre Calder de la Calder Foundation
– Titre Courant : Alexandre Calder
– Recommandé : Alexander Calder – Biography of the Artist from the Calder Foundation
Page sur les Plasma TVs (TV Ecrans Plasma) de Tiger Direct :
– Titre Courant : Plasma Televisions, Plasma TV, Plasma Screen TVs, SONY Plasma TV, LCD TV at TigerDirect.com
– Recommandé : Plasma Screen & LCD Televisions at TigerDirect.com
L’idée sous-jacente à ces recommandations est de distiller l’information dans l’extrait de texte le plus clair et le plus courant, tout en maintenant l’expression primaire des mot-clés comme premiers mots dans la balise. La balise titre donne la première impression d’une page Web, et peut servir à diriger le visiteur dans cette page, ou lui faire choisir un autre lien titre cliquable dans les résultats de recherche.
Recommandations pour les balises Méta :
Les balises méta ont, par le passé, eu la distinction d’être le premier royaume des spécialistes en référencement. Aujourd’hui, l’utilisation des méta balises, en particulier la méta balise « keywords » ou mot-clé, a diminué au point que les moteurs de recherche n’en tiennent plus compte.
La balise titre : c’est un élément très important en terme de SEO, la balise titre doit intégrer les mots clés les plus importants de la page qu’elle cible. Elle doit être tout en étant agréable à lire et représenter au mieux ce qu’elle propose derrière pour ne surtout pas tromper les internautes.
La balise méta description : est importante également, car plusieurs moteurs de recherche emploient cette balise pour montrer l’extrait du texte au-dessous du lien titre cliquable dans les pages de résultats. Elle a peu de poids en SEO, elle est plutôt orientée marketing pour inciter au clic.
Dans l’image ci-dessus, une illustration d’une page de résultats de recherche Google montre l’utilisation des balises titres et méta description. C’est sur cette page que les internautes choisissent sur quel résultat cliquer. La balise méta description n’a peut être aucune influence sur le classement d’une page, mais elle peut avoir un impact sur le nombre de visiteurs que la page reçoit du moteur de recherche. Notez que les balises méta ne sont pas toujours employées sur la page de résultat, mais elles peuvent être affichées (à la discrétion du moteur de recherche) si la description est précise, bien écrite, et pertinente avec la question de l’internaute.
Texte optimisé pour les résultats de recherche
L’écriture de texte convivial et visible sur une page de résultat de recherche n’est pas compliquée, mais il faut que ce site soit lisible par les moteurs. Les modèles des textes qui ne peuvent pas être classés par des moteurs de recherche incluent :
- Le texte inclus dans une application Java ou Flash
- Le texte dans un fichier image – jpg, GIF, png, etc
- Le texte accessible seulement par l’intermédiaire d’un formulaire à soumettre ou d’une autre action sur la page
- Le texte présent sur une page cloakée
Si les moteurs de recherche ne peuvent pas voir le texte de vos pages, ils ne peuvent pas parcourir et indexer le contenu pour que les visiteurs le trouvent. Ainsi, la création de texte optimisé pour les résultats de recherche au format HTML est essentielle pour être correctement indexé et bien classé. Si vous êtes forcé d’employer un format qui cache le texte aux moteurs de recherche, essayez d’employer les bons mots-clés et expressions dans les balises titres, les URLs, et les noms de fichiers images de la page. N’utilisez pas cette technique pour tricher et n’essayez jamais de cacher le texte (en utilisant la même couleur que le fond ou en employant des technique de CSS, du cloaking…). Même si les moteurs de recherche ne peuvent pas le détecter automatiquement, un concurrent peut facilement dénoncer votre site pour spamming et vous faire déclasser entièrement.
Quand on veut créer du texte visible, il est important de se rappeler que les moteurs de recherche analysent les termes et les expressions d’un document afin d’en extraire le meilleur concentré d’informations sur la page. Bien écrire pour des moteurs de recherche est un art et une science (car les référenceurs ne connaissent pas la méthodologie technique exacte et la manière dont les moteurs de recherche évaluent le texte pour les classements), et peut être une arme pour réaliser de meilleurs classements.
En général, ce qui suit sont des règles de base à appliquer aux pages de texte optimisées pour le classement dans les résultats de recherche :
- Mettez en avant dans votre document le terme ou l’expression la plus importante : les mesures comme la densité de mot-clé sont inutiles, mais la fréquence générale peut aider les classements.
- Créer du texte pertinent (pas de hors sujet) et de haute qualité : les moteurs de recherche utilisent une analyse lexicologique sophistiquée pour trouver des pages de qualité, et sont capables de faire aussi bien que des équipes de chercheurs pour identifier les éléments caractéristiques d’une écriture de haute qualité. Ainsi, une excellente écriture peut apporter de meilleurs classements, aussi bien que des visiteurs.
- Employez une structure optimisée de document : la meilleure méthode est généralement d’utiliser un format journalistique où le document commence par une description du contenu, puis découle de généralités sur le sujet vers des thèmes plus spécifiques sur ce même sujet. Les avantages de cette méthode sont argumentables, mais en plus de la valeur pour le référencement, elle produit les documents les plus lisibles et les plus orientés vers l’information du lecteur. Évidemment, dans les situations où elle est inadéquate, cette méthode ne doit pas être employée.
- Gardez le texte lié : beaucoup de référenceurs recommandent d’employer les CSS plutôt que les attributs de rédaction afin de garder l’écoulement continu des textes du document et d’empêcher la rupture du texte par du codage. Ceci peut également être réalisé avec des zones textes – assurez-vous simplement que les sections des textes (contenu, publicité, navigation, etc) se déroulent à la suite à l’intérieur d’une zone simple ou n’utilisez pas trop de zones multiples qui amènerait des rupture dans les phrases et les paragraphes.
- Priorité au champ lexical : pour répondre à Google RankBrain, il est important d’utiliser une sémantique large autour du sujet traité, en faisant appel à un champ lexical le plus complet possible. Pour cela, vous pouvez utiliser des outils de rédaction sémantique tels que 1.fr, SeoQuantum et YourText.Guru
N’oubliez pas que la disposition des textes et l’utilisation de mot-clé dans un document n’a plus beaucoup d’influence sur le classement dans les moteurs de recherche. Tandis qu’une bonne structure et une juste utilisation peuvent donner une légère poussée à votre classement. Être obsédé par les mots clefs ou la disposition des textes ne vous amènera globalement que très peu de bénéfices.
Architecture de l’information
L’organisation des documents et des liens d’un site Web correctement faite peut apporter des bénéfices dans les classements des résultats de recherches. La clef d’une architecture efficace est de suivre les règles qui régissent l’utilisation humaine d’un site :
- Utilisez un Plan du Site : il est sage d’avoir une page de plan du site liée à chacune des autres pages du site, ou au moins à chacune des pages des catégories importantes du plus haut niveau et à la page d’accueil. Le plan du site devrait, idéalement, avoir des liens avec toutes les pages internes du site. Cependant, si plus de 100-150 pages existent sur le site, un système plus sage est de créer un plan de site avec des liens vers toutes les pages du niveau des catégories, de sorte qu’aucune page dans un site ne soit à plus de 2 clics de la page d’accueil. Pour les sites particulièrement volumineux, cette règle peut être augmentée à 3 clics de la page d’accueil.
- Employez une structure de catégorie qui découle de général vers le spécifique : commencez par les sujets plus larges en tant que pages de catégorie hiérarchiquement haute, puis continuez en profondeur vers les pages avec des sujets spécifiques. Employer la plupart des techniques d’organisation autour de votre sujet indique aux moteurs de recherche que votre site est fortement pertinent et couvre un sujet en profondeur.
Pour plus d’information sur la répartition et l’organisation des documents et la hiérarchie des liens, lire l’excellent guide du Dr. Garcia : Guide to on-topic analysis.
Édition originale et contenu dupliqué
Un des problèmes les plus courants et les plus ennuyeux pour des créateurs de site web, en particulier les très grands sites dynamiques qui puisent leur contenu dans des bases de données, est la question du contenu dupliqué. Les moteurs de recherche sont principalement intéressés par les documents et le texte uniques, et quand ils trouvent des exemples multiples du même contenu, ils sont susceptibles d’en choisir un seul comme unique et original et de ne montrer que cette page dans leurs résultats.
Si votre site a des pages multiples avec le même contenu, utilisez un système de gestion de contenu qui crée les duplications dans une navigation séparée, ou, à causes de ces copies multiples, vous pouvez diminuer les chances de ces pages d’être bien classées dans les résultats de recherche. En outre, la valeur apportée par l’anchor text et par les liens internes et externes, sera diluée par ces versions multiples.
La solution est de prendre toutes les pages dupliquées et d’utiliser des redirections 301 pour pointer toutes les versions vers une édition unique et originale du contenu.
Un endroit très courant où détecter cette erreur se trouve sur la page d’accueil d’un site – souvent, un site web aura le même contenu sur http://www.url.com, http://url.com, et http://www.url.com/index.php. Cette seule duplication peut causer la dévaluation de nombreux liens et de sévères dommages au classement de la page d’accueil du site. Si vous trouvez beaucoup de liens externes pointant vers les versions www et non-www, il peut être sage d’employer une redirection 301 pour que toutes les pages qui pointent vers une version, soient redirigées vers l’autre.
Réalisation d’un site qui mérite du trafic
Ergonomie
L’ergonomie représente la facilité d’utilisation propre à la conception, la navigation, l’architecture, et la fonctionnalité de votre site. L’idée derrière la pratique est de rendre votre site intuitif de sorte que les visiteurs aient la meilleure expérience possible sur le site. Une foule entière de dispositifs influent sur l’ergonomie :
- Le design : les éléments graphiques et la disposition d’un site Web ont une forte influence sur la façon dont le site est facilement utilisable. Les normes sont : des liens bleus et soulignés, des barres de menu en haut et sur les côtés, des logos en haut dans le coin gauche. Ces règles peuvent vous paraître comme pouvant être contournées, mais adhérer à ces repères (avec lesquels de nombreux utilisateurs du Web sont déjà familiers) aidera à rendre votre site ergonomique. Le design influe également sur des éléments importants comme la visibilité et le contraste, affectant la facilité avec laquelle les utilisateurs vont s’intéresser aux textes et aux images du site. La séparation en différentes sections de la navigation, de la publicité, du contenu, des barres de recherche, etc. est également essentiel, car les utilisateurs suivent les indicateurs graphiques que vous aurez implantés pour les aider à comprendre le contenu d’une page. Pour finir il est aussi important de s’assurer que les éléments essentiels du site (comme les menus, les logos, les couleurs, et la disposition) ont été utilisés uniformément dans tout le site.
- Architecture de l’information : la hiérarchie d’organisation d’un site peut également affecter son ergonomie. Les sujets et la catégorisation influent sur la facilité avec laquelle un utilisateur peut trouver l’information dont il a besoin sur votre site. Tandis qu’une structure intuitive et intelligemment conçue guidera avec fluidité l’utilisateur vers ses buts, une hiérarchie complexe et obscure peut rendre la quête d’information sur un site, frustrante et désagréable.
- Navigation : un système de navigation qui guide facilement les utilisateurs à travers les pages supérieures aussi bien que dans les profondeurs de votre site, et qui fait en sorte que la plus grande partie de votre site soit facilement accessible, est essentiel pour l’ergonomie. Puisque que la navigation est l’une des fonctions primordiales d’un site Web, fournissez aux utilisateurs tous les systèmes de navigation évidents : des balises ALT pour les liens image, et de l’anchor text bien rédigé qui décrit clairement ce que l’utilisateur obtiendra s’il clique sur le lien. Des standards de navigation comme ceux-ci peuvent drastiquement améliorer l’ergonomie d’un site.
- Fonctionnalité : pour créer une ergonomie aussi parfaite que possible, assurez-vous que les outils, les scripts, les images, les liens et toutes les fonctionnalités de votre site, soient ce qu’elles doivent être et fonctionnent comme elles doivent le faire. Ne provoquez pas d’erreurs pour les navigateurs non standard, les systèmes d’exploitation alternatifs, ou les utilisateurs néophytes (qui souvent ne savent pas ni quoi, ni où cliquer).
- Accessibilité : l’accessibilité et l’UX se réfèrent principalement à la capacité technique des utilisateurs à accéder à et à parcourir votre site, ainsi qu’à l’accès au site pour les utilisateurs handicapés ou les systèmes à affichage réduit. Pour le référenceur, les aspects les plus importants sont de réduire les erreurs de code au minimum, de réparer les liens brisés et de s’assurer que le contenu est accessible et visible dans tous les navigateurs et sans action spéciale.
- Contenu : l’ergonomie du contenu lui-même est souvent négligée, à tort. La nature descriptive des titres, l’exactitude de l’information et la qualité du contenu sont des facteurs élevés dans la capacité d’un site à garder des visiteurs et à gagner des liens.
De façon générale, l’ergonomie est l’orientation d’un site vers tous les utilisateurs potentiels. Le succès dans ce domaine se traduira par des taux de conversion accrus, de meilleures chances que d’autres sites se joignent au vôtre, et de meilleurs rapports avec vos utilisateurs (moins de plaintes, moins de tickets réclamations, etc).
Design professionnel
L’impact puissant d’un design élégant et de grande qualité, est essentiel pour gagner la confiance de vos utilisateurs. Si votre site semble être « petit budget » ou professionnellement marginal, il peut réduire vos chances de gagner un lien et, de manière plus générales, vos chances de gagner la confiance de vos visiteurs. La première impression d’un site Web sur un utilisateur se produit en moins de 7 secondes. C’est là tout le temps dont vous disposez pour convaincre de l’importance et de la crédibilité de votre entreprise à travers le design du site.
L’application d’un design professionnel à un site peut générer un plus grand nombre de liens créés par des visiteurs satisfaits, un plus grand nombre d’utilisateurs qui reviendront sur votre site, un taux de conversion plus élevé, et une meilleure perception générale de votre site par ses visiteurs.
Bien que la haute qualité d’un design professionnel ne soit pas l’un des facteurs directs évalués par les moteurs de recherche, elle influence indirectement beaucoup d’autres facteurs qui affectent les classements (architecture des liens, confiance, ergonomie, etc).
Écrire du contenu de grande qualité
Pourquoi un moteur de recherche devrait-il classer votre site avant les autres dans un même domaine ?
Si vous ne pouvez pas répondre à cette question clairement et avec précision, atteindre le haut du classement sera exponentiellement plus difficile. Les moteurs de recherche essaient de classer en premier dans leurs résultats, les sites avec le contenu le plus approprié, et jusqu’à ce que votre site ait le meilleur contenu dans son domaine, vous lutterez toujours contre les moteurs plutôt que de les amener à votre page d’accueil.
C’est dans la qualité de son contenu qu’un site montre son vrai potentiel, et bien que les moteurs de recherche ne puissent pas mesurer la probabilité des utilisateurs à apprécier un site, le vote par l’intermédiaire du système de liens fonctionne comme mesure pour identifier le meilleur contenu sur un marché. Avec le contenu de qualité viennent donc les liens de qualité et, finalement, les classements élevés. Fournissez le contenu dont les utilisateurs ont besoin, et les moteurs de recherche récompenseront votre site.
Le contenu de qualité, cependant, comme le design professionnel, n’est pas toujours dicté par des règles strictes et des recettes. Ce qui passe pour être le top dans un secteur peut être au-dessous de moyenne sur un autre marché. La compétitivité et les intérêts de vos pairs et concurrents dans un domaine déterminent souvent quel genre de contenu est nécessaire pour bien se classer. En dépit de ces variables, plusieurs recettes peuvent être presque universellement appliquées pour produire du contenu digne d’attention :
- Explorez votre domaine : sortez sur les forums, les blogs et les communautés où les gens de votre secteur d’activité passent leur temps en ligne à discuter. Notez les questions les plus souvent posées, les sujets les plus en cours, et les posts ou les titres qui génèrent le plus d’intérêt. Utilisez cette connaissance quand vous créez le contenu de haute qualité de votre site et satisfaisez directement les besoins de votre marché. Si 10.000 personnes dans le domaine de la botanique recherchent des articles qui contiennent des diagrammes plus illustrés au lieu de simples photos, fournir ces éléments peut faire monter votre contenu (et votre site) indépendamment de la concurrence.
- Consultez et publiez en partenariat avec des experts dans votre domaine : dans tout secteur, il y a des experts de haut niveau « reconnus » et un deuxième niveau de personnes avec « de bonnes réputations dans certains cercles et communautés Web ». Ciblez chacun de ces groupes pour réaliser du travail collaboratif comme, publier des articles ou évaluer votre travail. ces contributions (même par l’intermédiaire de quelques petites citations) peuvent énormément apporter. De cette manière, vous pouvez être assuré que votre contenu et vos liens sont dignes de visite. En outre, quand vous faites du partenariat avec des experts, des occasions de visibilité supplémentaires sont automatiquement générées et créent des moyens et des angles de promotion nouveaux.
- Créez des documents qui peuvent servir de ressources « références » : si vous pouvez produire un article ou une page simple qui montre toute la richesse et tous les aspects du potentiel d’information qu’un éventuel visiteur ou chercheur pourrait trouver sur votre site, vos chances d’être bien classé dans les moteurs augmentent. Une ressource « référence » peut fournir plus d’opportunités qu’une ressource spécifique simple, dans beaucoup de cas. Ne soyez pas trop général quand vous essayez de créer ce genre de contenu, il est toujours important de garder un angle étroit et précis quand vous créez votre contenu. Le meilleur équilibre peut être trouvé en se mettant à la place des utilisateurs potentiels, si votre contenu est adapté à leurs besoins et couvre chaque aspect de leurs intérêts possibles, votre site est fin prêt.
- Créez du contenu unique et original : assurez-vous que quand vous esquissez les grandes lignes de votre contenu, vous incluez des données et de l’information qui ne peuvent être trouvées nulle part ailleurs. Bien que la collecte d’informations sur le Web et leur amalgame sur un site puisse créer du bon contenu, ce sont les seuls éléments dans votre travail qui seront remarqués et recommandés.
- Publiez le contenu important dans un format non-publicitaire : créer un format de document non-publicitaire est d’une importance extrême pour capter des liens et l’attention. Les communautés des concepteurs de sites et de contenu sont particulièrement habitués à la publicité du Web et consciemment et inconsciemment, ils font des liens vers, et recommandent les ressources qui ne sont pas envahies par de la publicité trop voyante ou trop intrusive.
- Une excellente page vaut mieux qu’un millier de bonnes pages : bien que des douzaines ou des centaines de pages qui couvrent tous les aspects d’un secteur soit profitables à la croissance d’un site Web, il vaut réellement bien mieux investir une quantité significative de temps et d’énergie sur quelques articles/ressources de qualité véritablement exceptionnelle. Créer des documents qui deviennent incontournables dans leur domaine sur le Web et sont désignés à maintes reprises en tant que « la source » pour davantage de recherche, de réclamations, de documents, d’informations… est la véritable clé du succès de la guerre des classements dans les SERPs de Google. La valeur de la possession de cette source de trafic et de lien est de loin supérieure à une myriade d’articles ou de pages rarement lus ou pointés par des liens.
Susciter des liens organiques
Dans le but de publier le contenu le plus digne de liens possible, penser en dehors des sentiers battus et créer un document, un outil ou un service véritablement révolutionnaire peut booster votre site. Même sur les sites institutionnels d’entreprise ou les sites de ventes de petites sociétés, un seule mais passionnante partie de contenu qui obtiendrait d’être reprise en masse par votre communauté Web vaut une petite fortune pour les relations publiques et la visibilité. Améliorez toujours les liens que vous gagnez avec un renouvellement constant et de nouvelles versions passionnantes de votre site. Cela lui permettra de rester visible dans les moteurs de recherche longtemps après que l’événement lui-même ait été oublié.
Utiliser du contenu pour générer des liens est devenu une activité si efficace, que créer du contenu dans le seul but de gagner des liens est devenu une pratique populaire pour les référenceurs de talent. Afin de profiter de ce phénomène, il est nécessaire de commencer par un brainstorming. Voici quelques idées de départ qui peuvent vous aider à construire le contenu dont vous avez besoin pour générer d’excellents liens.
- Outils libres : les outils automatisés qui interrogent des bases de données, combinent l’information ou aident à la décision sont éminemment dignes de lien. Pensez aux idées des calculateurs de crédit et des outils de d’analyse de site, puis développez-le dans votre secteur professionnel.
- Applications Web 2.0 : bien que le terme Web 2.0 soit plus un mot à la mode qu’une technicité, les applications qui adaptent le positionnement de dispositif, obtiennent un nombre fantastique de liens de la communauté Web et des disciples de cette tendance. Pensez aux cartes, aux communautés, au partage de fichiers, aux tags, aux RSS et aux blogs.
- Documents de travail collaboratif : travailler en partenariat avec d’autres est une bonne manière de produire du contenu plus rapidement et avec généralement une meilleure qualité. Si vous pouvez amener des experts de haut niveau ou plusieurs personnes connues dans votre secteur d’activité à collaborer avec vous, vos chances de développer l’amorçage de lien vont sensiblement augmenter.
- Dénoncer les mauvais comportements : la publication d’un article – sur un modèle journalistique – détaillant les méfaits de tiers (que ce soit des organismes, des sites Web, des individus ou des entreprises) peut produire de beaucoup de liens et du trafic si c’est fait de manière professionnelle (et que vous avez la primeur de la publication). Soyez sûr de prendre toutes les précautions avec ce type d’actions, car le retour de manivelle peut être pire que les bénéfices si votre action ne provoque pas les réactions attendues.
- Les Top listes : les listes numérotées (de trucs et astuces, de liens, de ressources, de sites, etc.), en particulier celles qui classent leurs éléments, peuvent être un excellent moyen de faire du buzz. Ces listes favorisent souvent la discussion, donc, le référencement.
- Humour relatif à votre secteur : même le plus sérieux des secteurs professionnel peut pratiquer un peu d’humour de temps en temps. Comme avec des exposés, soyez attentif à ne pas offenser (bien que cela aussi peut mériter des mentions), utiliser votre connaissance des stéréotypes et des histoires de votre profession ou secteur d’activité pour obtenir les rires de toutes les personnes concernées par le sujet et les liens seront à vous.
- Revue des événements de votre secteur d’activité : les rassemblements professionnels, des tournées publicitaires aux conférences, aux discours, et aux séminaires, peuvent tous recueillir de bons liens avec une revue bien écrite. Écrivez professionnellement, en tant que journaliste, et essayez d’utiliser autant de noms et prénoms que possible. Il est également sage de faire un lien à tous ces gens que vous mentionnez, car ils verront les liens dans leurs logs de référencement et en auront connaissance.
- Interviews avec des professionnels connus : n’importe qui, dans un secteur d’activité, dont le nom apparaît fréquemment dans la presse interne professionnelle est un bon candidat pour une interview. Même s’il ne s’agit que de quelques courtes questions à travers un email, une interview révélatrice peut être une grande source des liens, et les professionnels estimés sont susceptibles de répondre à des demandes même des plus petites sources, car ils peuvent tirer bénéfice du buzz, eux aussi.
- Analyses ou collectes des données : offrir une large palette de données professionnelles recueillies par des sondages individuels, une analyse en ligne, ou une simple recherche avec un rassemblement ou un recoupement des données peut fournir une ressource très digne de lien.
- Films ou Animations : en particulier dans les secteurs d’activité où les clips visuels et les animations sont rares, une vidéo ou une animation de haute qualité, amusante ou instructive peut obtenir plus que quelques visiteurs intéressés…
- Infographies, diagrammes, graphiques, ou tableurs : ces graphiques de gestion standard devraient certainement inclure l’analyse et la dissection des résultats, mais peuvent fournir une bonne source des liens s’ils sont promus et construits correctement.
- Critiques de noms connus : semblable au système d’exposé, des critiques bien écrites de produits populaires, d’entreprises, de sites, ou d’individus dans un secteur peuvent vous permettre de gagner quelques liens, de gens qui seront d’accord ou en désaccord.
- Concours, prix et récompenses : donner des prix ou des récompenses publiques (même si c’est seulement pour les graphiques d’un site Web) peut amener beaucoup de gens en ligne à être intéressés, à participer et à faire des liens.
- Découvrir les tendances : découvrir les histoires avant les autres s’appelle « un scoop » en journalisme. Faites-en en ligne, et tous (ou en tous cas beaucoup) les posts, de blogs ou de forums sur le sujet, mettront votre site en référence en tant que premier à en avoir parlé
- Conseil de multiples experts : si vous créez un article qui offre du conseil, l’appui des avis d’experts bien connus dans le domaine est un excellent moyen de s’assurer des liens vers vous. Les experts eux-mêmes seront souvent d’accord pour vous pointer des liens.
Il y a des douzaines d’autres excellents moyens pour conduire des blogueurs, des auteurs, et des éditeurs de site Web dans votre domaine à ajouter des liens vers votre site. Imaginez-vous comme blogueur de votre domaine d’activité, cherchant à couvrir les tendances et les pages les plus passionnantes et les plus originales, rares et uniques du secteur. Si vous tombiez sur votre contenu, seriez-vous susceptibles d’écrire à son sujet ? Si la réponse est oui, il est qualifié pour susciter des liens.
Croissance de la popularité d’un site
Construire une communauté
Créer une base d’utilisateur qui se développe en large communauté n’est pas une tâche facile, mais c’est l’un des Saint Graals du marketing et de la promotion en ligne. L’idée est de développer du contenu fréquemment mis à jour sous forme de blog, de forum, de wiki, ou de tout autre système d’échange muti-utilisateur qui peut devenir une référence et lieu de rassemblement pour un nombre significatif d’individus dans une domaine ou un secteur.
Une fois qu’une communauté est établie, les contributions individuelles des membres et la couverture des événements du domaine sont des sources naturelles pour les liens venant des bloggers et des auteurs, qu’ils soient membres ou simples visiteurs. En outre, beaucoup de membres qui réalisent leur propre site désigneront la communauté comme leur lieu de rassemblement, créant encore plus de liens de grande valeur. Construire une communauté exige de la finesse et une habileté certaine pour les relations humaines en ligne, mais les récompenses sont énormes.
Communiqués de presse et relations publiques
Influencer la presse généraliste ou la presse spécialisée pour couvrir votre entreprise ou ses actions peut être une voie hautement pertinente pour attirer l’attention sur votre site, qui, s’il est digne de lien, peut gagner un nombre fantastique de liens dans un minimum de temps. Les sites de communiqués de presse comme PRNewsWire et PRWeb (PR = Public Relation) sont un bon point de départ pour attirer du trafic et des liens, car les deux alimentent les principaux moteurs de recherche de news en ligne (Yahoo ! News et Google News), tous deux peuvent fournir une aussi bonne visibilité. Optimiser les communiqués de presse est une technique spécifique – choisir les bons titres et sous-titres, écrire une histoire captivante, et structurer proprement son contenu sont tous des éléments importants. Un des experts les plus réputés dans ce domaine (Greg Jarboe) publie un site avec des conseils spécifiques (SEO-PR) en particulier sur l’optimisation des communiqués de presse.
Au delà de ces optimisations, cela peut, de toute façon, amener des journalistes à écrire des éditoriaux ou des news sur le sujet de votre communiqué et à inclure un lien ou la mention de votre site. Certaines des sociétés les plus réputées au monde dans le domaine des relations publiques dépensent une fortune pour ce service, mais à petite échelle, cela peut être réalisé en interne. Le principe est d’avoir de l’information aussi captivante et intéressante que ce que des journalistes aimeraient couvrir. Si vous avez les éléments d’une bonne histoire avec un raccordement naturel ou une excellente intégration avec votre site, envoyez un email à quelques journalistes dont vous aurez trouvé un travail sur des sujets similaires. Ne commencez quand même pas par le New York Times ou Le Monde. Jouez la carte du local, indépendant, et amical pour augmenter vos chances de succès. Pour un excellent exemple de la façon dont les techniques standards de P.R. fonctionnent, lisez l’article de Paul Graham sur l’efficacité des sociétés de P.R. sur le Web.
Construction de liens basé sur l’analyse de la concurrence
Examinez les liens obtenus par vos concurrents mieux classés et employez vos propres méthodes pour obtenir que les vôtres soient aussi listés sur ces sites/pages est un excellent moyen de rester concurrentiel dans la course aux liens. C’est également un bon moyen de générer du trafic naturel, car si ce sont ces liens et ces sites qui envoient du trafic à vos concurrents, ils apporteront également des visiteurs à votre site. La méthodologie pour étudier les liens d’un concurrent est directe et transparentes, bien que des méthodes plus complexes puissent être employées par le chercheur avancé.
La meilleure source de données sur les liens est Yahoo ! car Google n’enregistre pas de données précises sur les liens pointant vers un site. Les classements de liens par MSN peuvent souvent montrer des liens moins valables et pertinents. Yahoo ! montre actuellement la plus grande exactitude dans les nombres de liens, et les trie également bien, plaçant typiquement les liens les plus valables en premier dans les résultats.
L’analyse de la concurrence inclut également de considérer les hauts du classement des résultats de recherche elles-mêmes comme sources de liens. Si un site ou une page se classe particulièrement bien dans beaucoup de recherches relatives, un lien de ce site peut générer un grand nombre de visiteurs intéressés. Les classements dans les moteurs de recherche sont également un excellent moyen de déterminer la valeur d’un lien, ainsi si une page à un excellent classement pour les mots-clés que vous ciblez, un lien de cette page est sûr de d’apporter une grande aide dans votre quête du meilleur classement.
Édification de personnalité et de réputation
Le culte de la personnalité sur Internet est un excellent moyen pour des individus à la plume charismatique, de faire des gros titres, de se faire des amis, et de gagner des liens en développant leurs réseaux on-line. Une grande variété de sites d’interactions sociales fonctionne à travers des domaines d’activité sur le Web, fournissant des sources prêtes à l’emploi pour établir une réputation et gagner des liens. Les clés de cette méthodologie sont de fournir des contributions honnêtes et intelligentes aux discussions existantes tout en créant une relation entre vous-même et les communautés.
Les forums en ligne sont d’excellents lieux où commencer, et peuvent fréquemment mener à d’autres points de rendez-vous pour un possible partenariat avec vos collègues. Pour construire une excellente réputation sur un forum en ligne, l’honnêteté, l’intégrité, et la franchise fournissent les meilleures chances d’être pris au sérieux et vu par d’autres en tant qu’expert dans votre domaine. Les forums offrent généralement un système intégré pour envoyer des gens sur votre site : le lien de signature. Bien que se discute toujours de savoir si les moteurs de recherche comptent ces liens pour les classements, il n’y a que peu doute au sujet de leur efficacité à diriger des visiteurs de forum sur votre site. Un des derniers trucs utilisé par les forums est de n’autoriser q’un seul lien à votre site dans votre signature – s’assurant que les gens vous identifient avec une seule adresse en ligne, plutôt que plusieurs. La combinaison de ces techniques pertinentes de forum de discussions, de ces liens de signature et du blogging peut également être de grande valeur.
En plus des forums, les publications comme les commentaires de blog (qui utilise fréquemment l’attribut « nofollow », et sont donc valables pour les visiteurs vivants mais pas les moteurs de recherche), les canaux d’ICQ, les chatrooms, les Google groups, les salons et chatrooms privés peuvent tous atteindre un objectif semblable. Restez cohérent dans chaque format – utilisation de la même voix, avatar, photo, et pseudo afin de faciliter votre identification et d’établir votre réputation.
Mots-clés et expressions fortement concurrentiels
Mots-clés et expressions fortement concurrentiels
Pour quelques mots-clés et expressions, même les meilleurs sites Web avec les efforts promotionnels les plus diligents auront de longs et difficiles moments à passer pour entrer dans le top 10 ou 20. Dans ces situations, il peut être tentant de redéployer ses efforts en dehors des directives des moteurs de recherche. Toutefois aussi forte que soit cette tentation, soyez informé que les moteurs de recherche ne tolèrent pas le spam ou la manipulation par l’intermédiaire de liens automatisés, ils ne permettent jamais à de tels résultats de prospérer longtemps. Bien que ces méthodes, généralement désignées sous le nom « black hat » des référenceurs, puissent avoir de l’efficacité à court terme, elles ont peu de chance de succès à long terme dans les moteurs et peuvent vous faire bannir de manière permanente, des résultats de recherche.
Pour des résultats fortement concurrentiels (comme « crédit », ou « assurance auto »), l’optimisation « long tail »décrite plus haut (les mots-clés secondaires de recherche pour lesquelles la concurrence est moins lourde) peut être la meilleure méthode. Les moteurs de recherche tiennent également compte de l’âge d’un site et de ses liens et donnent plus de poids aux sites avec des liens de longue date et à forte valeur de confiance. Ainsi, alors que les bons classements peuvent être rares au début, avec le temps un propriétaire de site entreprenant peut réaliser des performances de visibilité, même dans les recherches les plus concurrentielles.
Conclusion : mettre en application une stratégie de référencement
Quantité contre qualité
Si vous voulez optimiser un site pour être bien classé dans les moteurs de recherche, soyez très attentif à la qualité de votre site Web et à l’efficacité de votre stratégie de promotion. Alors que créer des milliers de pages visant chaque mot-clé imaginable peut vous sembler une tactique viable, en fait, une simple source ou un excellent article ou contenu sur une seul mot-clé peut être bien plus profitable pour votre site et moins déclassé pour spam par les moteurs de recherche.
Cette même règle s’applique au domaine de la promotion. Alors que des milliers de pages « spammantes » de mauvaise qualité, ou de liens généraux réciproques peuvent fournir une certaine poussée dans les moteurs, un effet bien plus grand peut être réalisé avec juste quelques liens à forte valeur ajoutée, bien placés, venant de sources appropriées qui vous amèneront du trafic et un meilleur classement. A l’heure de l’analyse avancée des liens spam, les moteurs de recherche donneront un plus grand crédit à un lien venant de CNN.com, de Berkeley.edu, ou d’Usability.gov (pour les USA) qu’un lien venant de 50.000 livres d’ors, signatures de forum, ou de répertoires réciproques de lien.
Évaluer ses résultats : analyse et statistiques d’un site
Une des meilleures sources de données pour l’analyse et l’optimisation dans une campagne de référencement, sont les statistiques des programmes de tracking et d’analyse de site Web. Un bon programme d’analyse peut fournir une quantité incroyable de données qui peuvent être employées pour tracer vos visiteurs et prendre des décisions sur : qui voulez-vous cibler comme clients à l’avenir et comment les obtenir.
Voici une courte liste des meilleurs processus de tracking de visiteur :
- Campagnede Tracking– La capacité à prendre des URLs spécifiques ou des chaînes de caractères de référence à l’intérieur des publicités, des email, ou des liens et de tracker leur résultats.
- Tracking d’actions – Ajouter la capacité de tracker certaines actions sur un site comme la soumission de formulaire, l’inscription de newsletter, l’ajout d’achat dans un panier, ou le contrôle de bon accomplissement de transaction et lier les informations ensembles avec les campagnes et le tracking de mot-clé afin de savoir quels pubs, liens, mots-clés, et campagnes vous apportent les meilleurs visiteurs.
- Tracking du trafic des moteurs de recherche – Voir quel moteur de recherche a envoyé quels visiteurs, en combien de temps et avec quels mots et expressions clés ils ont atteint votre site. Combiné avec le tracking d’actions, ceci peut vous aider à déterminer quels mots-clés vous devez cibler.
- Tracking du trafic par URLs et domaines – Ceci vous permet de voir quels URLs et domaines sont responsables de l’envoi de trafic. En traçant ces derniers individuellement, vous pouvez voir d’où viennent vos liens les plus valables.
- Tracking des premières ou, multiples visites – Découvrez quel pourcentage de vos visiteurs revient chaque jour/semaine/mois. Ceci peut vous aider à réaliser si des parties de votre site sont capables de garder et de faire revenir des visiteurs.
- Pages d’entrée – Quelles sont les pages qui attirent la plupart des visiteurs et qui les convertissent. Vous pouvez également voir les pages qui ont un taux élevé de perte de visiteurs – ces pages qui font du mauvais travail en ne gardant pas les visiteurs à l’intérieur du site.
- Environnement des visiteurs – D’où viennent vos visiteurs, quels navigateurs utilisent-ils, à quelles heures vous visitent-ils ? Toutes ces questions et beaucoup d’autres trouveront une réponse avec l’analyse de l’environnement des visiteurs.
- Analyse du chemin d’accès au clic – Quel chemin d’accès vos visiteurs suivent-ils quand ils arrivent à votre site ? Ces données peuvent vous aider à concevoir des flux naturels de pages plus logiques pour vos visiteurs quand ils naviguent sur votre site, pour trouver de l’information, ou accomplir une action.
- Pages populaires – Quelles pages obtiennent la plupart des visiteurs et lesquelles sont négligées ? Utilisez ces données pour améliorer les pages peu populaires et les mettrent au niveau de celles qui génèrent un fort trafic.
- Pages vues par session – Ces données pourront vous dire combien de pages visionne chaque visiteur de votre site – un autre information utilisée pour mesurer la capacité de votre site à « garder » ses visiteurs
Savoir utiliser les informations que vous obtenez par le tracking de vos visiteurs est une compétence. L’expérience et le bon sens devraient vous aider à découvrir quels mots-clés, visiteurs, liens, et environnements sont les plus valable pour votre site, vous permettant ainsi de savoir où et comment agir.
Travailler avec un professionnel ou faire soi-même son référencement ?
Comme dans beaucoup d’autres domaines du développement Web, une querelle de longue date existe entre ceux qui estiment que l’étude et la pratique du référencement devraient être faites en interne, contre ceux qui jugent qu’il est mieux de la laisser aux professionnels. Il y a des avantages dans l’une ou l’autre solution, et il vaut mieux peser le pour et le contre avant de prendre une décision finale.
Avantages à travailler avec un professionnel du référencement
- Une expérience diversifiée – Les professionnels avec plusieurs années d’expérience en référencement dans leur besace pourront vous dire à quoi s’attendre des moteurs de recherche pendant que vous conduirez le processus de référencement. Ils peuvent également interpréter et comprendre des données de classement et des variations brusques dans les résultats qui peuvent indiquer certaines tendances ou stratégies à mettre en application ou à éviter.
- Un réseau relationnel – Beaucoup de référenceurs ont des contacts professionnels avec des gens qui ont une l’expérience dans certains domaines particuliers et des compétences très pointues dans des parties spécifiques du référencement (communiqués de presse, diffusion d’article, annuaires, etc.) qui peuvent avoir un fort impact sur le résultat de vos efforts. Plusieurs référenceurs ont même des rapports personnels avec certaines figures employées des moteurs de recherche, bien que l’utilisation de ces contacts soit très rare et que les représentants des moteurs se glorifient de ne pas faire montre de favoritisme.
- Un savoir-faire dans la construction de liens – Les professionnels auront la capacité d’identifier rapidement les communautés d’intérêt et les sites les plus populaires et les plus appropriés à lier avec vous, et vous feront économiser du temps dans la construction de lien. Les référenceurs ont également une expérience considérable dans l’acquisition de lien et sauront identifier les conditions de certains sites pour des liens achetés, des demandes de lien, etc.
- Identifier le contenu liable–– Les référenceurs sont souvent des maîtres dans la manière d’organiser et de lancer un contenu. Non seulement ils peuvent identifier le contenu le plus approprié pour obtenir des liens d’une communauté Web spécifique, mais ils sont également expérimentés dans la manière de le présenter et de le promouvoir.
- Trouver les solutions à certains problèmes – Les professionnels sont compétents pour identifier et de gérer les problèmes qui peuvent causer un manque d’indexation, de mauvais classements, ou des pénalités de la part des moteurs de recherche. C’est une compétence qu’il peut être très difficile de développer sans quelques années de pratique et d’expérience. Si vous avez un problème de classement, un référenceur peut être un énorme atout.
- Economie de temps–Le référencement peut être particulièrement dévoreur de temps. Un référenceur expérimenté connaît les processus et les systèmes pour faire du référencement, une science, et peut employer cette efficacité pour fournir un meilleur service en moins de temps.
Si vous choisissez d’externaliser votre référencement auprès d’une société spécialisée, soyez conscient des nombreux pièges qui attendent les non-initiés. Le référencement est typiquement un secteur qui a attiré beaucoup de sociétés peu fiables et déshonorantes de ce métier, avec pour résultat une mauvaise image de beaucoup de ses acteurs. Prêtez une attention particulière à ce qui suit :
- Manipulation et spam des résultats de recherche – Utilisées excessivement, ces tactiques agressives peuvent vous faire interdire des moteurs de recherche.
- Échanges de liens et liens « gratuits pour tous » (liens sans valeurs) – Bien que les promesses de constructions de lien, faciles, par des échanges de lien ou des fermes de lien soient tentantes, ces tactiques donnent souvent des résultats provisoires. Les liens naturels et organiques de sites, auprès desquels vos concurrents eux, ne peuvent pas obtenir des liens sont la meilleure manière d’être bien classé et de le rester.
- Optimiser vos pages, pour les moteurs de recherche ou pour les visiteurs ? – Les professionnels du référencement devraient avoir des spécialistes en rédaction publicitaire capables de créer des pages bien écrites qui attirent les utilisateurs et les moteurs de recherche. L’utilisation réitérée de mot-clé (comme signalé plus haut) est en grande partie inutile, mais un texte, séduisant et intelligent est un excellent moyen d’obtenir des visiteurs et des moteurs intéressés par votre contenu.
- Classements garantis – Garantir des classements est souvent l’une des premières indications que vous traitez avec une mauvaise entreprise. Aucun référenceur ne peut garantir des classements, parce que les moteurs de recherche sont responsables des résultats et changent constamment. Soyez prudents, aussi, avec les promesses de succès sur « des milliers de moteurs » (rappelez-vous que les 4 principaux captent 95%+ de tout le trafic des recherches), les soumissions quotidiennes (complètement inutile), et autre « tours » ou « secrets ». Les premières places des classements viennent d’avoir de bons sites avec des liens de qualité – aucun tour ou secret n’est nécessaire.
- Renseignez-vous – La société qui souhaite travailler avec vous devrait pouvoir vous fournir des références, de préférence de quelques clients et gens du métier qui vous renseigneront sur leurs compétences et capacités. Utilisez vos capacités de jugement – si des avis ou des réponses vous semble douteux, ils le sont probablement.
Avantages à faire soi-même son référencement
- Contrôle total – Vous avez la responsabilité personnelle et le contrôle total de chaque élément facteur de progrès de votre site. Il ne peut y avoir aucun doute sur qui ? ou quoi ? à créé un lien, ou modifié un document.
- Acquérir un savoir-faire, tiré du résultat de ses actions – Les fluctuations du classement enseigneront rapidement à un référenceur amateur ce qui marche et ce qui ne marche pas. Les effets de certains liens, certaines mises jour et certaines modifications de contenu seront bien visibles et mesurables, lui faisant ainsi un apprentissage.
- Responsabilité personnelle – Votre succès ou votre échec dépendra entièrement de vos propres efforts, précisant la responsabilité et empêchant des doublons dans le travail ou les blâmes.
- Économies – Faire le référencement vous-même signifie que vous ne devez pas payer quelqu’un d’autre. Si vous constatez que votre temps est moins cher que louer un fournisseur externalisé, faire soi-même son référencementpeut être un excellent moyen d’économiser de l’argent.
Avec ces informations à l’esprit, vous êtes prêt à prendre une décision en connaissance de cause. Rappelez-vous, aussi, que beaucoup d’offres de services de conseils en référencement, vous fournissent une stratégie et un plan d’action qui peut être mis en application, et qu’il peut être utile d’avoir un consultant pour vous donner le bon conseil au moment opportun. Ce type d’arrangement peut offrir un bon équilibre si vous êtes partagé entre les deux solutions. En moyenne, comptez entre $100 et $300 de l’heure, selon l’expérience et la notoriété du consultant.
En conclusion, si vous optez pour le référencement en interne, soyez conscients qu’il y a beaucoup, beaucoup de parties du processus de référencement qui ne sont pas traitées dans ce guide. Le référencement est une pratique dans laquelle même les professionnels les plus respectés continuent à apprendre et à faire des recherches journalière pour rester au fait des tendances sur le Web et des modifications d’algorithmes dans les moteurs de recherche. Un responsable d’entreprise ou de site voudra certainement joindre plusieurs communautés Web de référenceurs (voir la liste dans la section liens) et rester à jour en matière d’information et des meilleures pratiques des experts du domaine.
Où obtenir des réponses à vos questions ?
Que vous vouliez réaliser une campagne de référencement vous-même ou travailler avec un professionnel du référencement, il y a des milliers de questions que vous découvrirez chaque jour. Obtenir rapidement des réponses avec la meilleure information possible peut exiger que vous payez un consultant, et les forums en ligne de référencement peuvent être une alternative.