×

COMMENT ACHETER UN PRESTATION DE REFERENCEMENT ?

1 Choisir la prestation
2 Ajouter la prestation au panier
3 Régler le panier

Vous recevrez sous 5 jours ouvrés un mail de confirmation de l'exécution de la prestation

Horaire d'ouverture

Lun-Ven 9:00H - 19:00H
Sam - 9:00H-17:00H
Dimanche sur RDV !

VOUS AVEZ OUBLIÉ VOS IDENTIFIANTS ?

Le guide SEO pour les débutants

PART 1

Devenez le nouveau maître du référencement google

Le guide SEO pour les débutants

PART 2

Devenez le nouveau maître du référencement google

Le guide SEO pour les débutants

PART 3

Devenez le nouveau maître du référencement google

PRÉC
SUIV

CHAP 9 : Mythes et fausses idées sur le moteur de recherche

Au cours des dernières années, plusieurs idées fausses sont apparues sur la façon dont fonctionnent les moteurs de recherche. Pour le débutant SEO, cela provoque une confusion sur ce qui est nécessaire. Dans cette section, nous allons expliquer la vraie histoire derrière les mythes.

Présentation du moteur de recherche

Dans les temps de référencement classique (à la fin des années 1990), les moteurs de recherche avaient des formulaires de soumission qui faisaient partie du processus d'optimisation. Les webmasters et les propriétaires de site marqueraient leurs sites et pages avec des informations sur les mots clés pour les soumettre aux moteurs. Peu de temps après la soumission, un robot ramper et incluait  ces ressources dans leur index. SEO simple!

Malheureusement, ce processus n'a pas très bien marqué, les soumissions étaient souvent des spams, donc la pratique a finalement cédé la place à des moteurs purement basés sur l'exploration.

Depuis 2001, non seulement la recherche de moteur n'a pas été requise, mais est devenue pratiquement inutile. Tous les moteurs  utilisent rarement les URL soumises et la meilleure pratique est de gagner des liens vers d'autres sites. Cela exposera votre contenu aux moteurs naturellement.

Vous pouvez parfois trouver des pages de soumission (voici une pour Bing https://www.bing.com/toolbox/submit-site-url), mais ce sont des restes du passé, et sont inutiles dans la pratique du référencement moderne. Si vous entendez un argument provenant d'un référencement offrant des services de soumission de moteurs de recherche, ne marche pas, ce n’est pas un vrai référencement. Même si les moteurs utilisent le service de soumission pour explorer votre site, il est peu probable que vous gagnez suffisamment de jus de lien pour être inclus dans leurs indices ou classer de manière compétitive pour les recherches.

Meta Tags

Il était une fois, les balises méta (en particulier, les méta mots clés tag) c’étaient une partie importante du processus de référencement. Vous incluez les mots-clés pour lesquels votre site a été classé, et lorsque les utilisateurs ont dactylographié dans ces termes, votre page pourrait apparaître dans une requête. Ce processus a été rapidement transmis par effraction et a finalement été abandonné par tous les principaux moteurs comme un signal de classement important.

Autres tags, en particulier l'étiquette de titre et la balise de méta-description (Couvert précédemment dans ce guide), sont essentiels pour la qualité du référencement.

En outre, la balise meta robots est un outil important de contrôle accès aux chenilles. Alors, tout en comprenant l’importance des fonctions des méta-tags, ils ne sont plus l'objet central du référencement.

Remplissage de mots-clés

Vous avez déjà vu une page qui semble simple? Peut-être quelque chose comme: "Le plombier bon marché de Bob est le meilleur plombier Seattle bon marché pour tous vos besoins de plomberie. Contactez un pompier Seattle bon marché avant qu'il ne soit trop tard."

Il n'est pas surprenant qu'un mythe persistant dans SEO tourne autour du concept de densité de mots clés - nombre de mots sur une page divisé par le nombre d'instances d'un mot-clé donné.

En dépit d'être réfutée maintes et maintes fois, ce mythe a des jambes. Beaucoup d’outils de référencements se nourrissent du concept selon lequel la densité des mots clés est une métrique importante. Ce n’est pas vraie. Ignorer et utiliser les mots clés de manière intelligente et avec la convivialité à l'esprit.

La recherche payante contribue à renforcer les résultats organiques

Mettez vos chapeaux en aluminium; la théorie de conspiration SEO la plus répandue: les dépenses pour la publicité sur les moteurs de recherche (pay per click ou PPC) améliore votre classement organique SEO.

Dans notre expérience et notre recherche considérables, nous n'avons jamais vu de preuves que la publicité payée affecte positivement les résultats de recherche organique. Google, Bing et Yahoo! ont tous érigé des murs dans leur organisation spécifiquement pour empêcher ce type de croisement.

Chez Google, les annonceurs qui dépensent des dizaines de millions de dollars par mois ont noté qu’ils ne peuvent   pas avoir un accès spécial ou une prise en compte de la qualité de la recherche ou des équipes de spam Web. Les résultats devraient rester un mythe.

MOT DE RECHERCHE SPAM

Tant qu'il y aura de la recherche, il y aura du spam. La pratique du spamming des moteurs de recherche créé des pages et des schémas conçus pour gonfler artificiellement les classements ou abuser du classement. L’algorithme a augmenté depuis le milieu des années 1990.

Les enjeux sont élevés. One SEO a noté qu'un seul jour se situait au sommet des résultats de recherche de Google pour la requête "buy viagra" pourrait générer plus de 20 000 $ en revenus d'affiliation. Il est donc peu étonnant que la manipulation des moteurs est une activité aussi populaire. Cependant, il est devenu de plus en plus difficile et, à notre avis, de moins en moins utile pour deux raisons:

  1. Ne vaut pas l'effort

Les utilisateurs détestent le spam, et les moteurs de recherche ont une incitation financière à le combattre. Beaucoup croient que le meilleur avantage produit de Google au cours des 10 dernières années a été la capacité de contrôler et de supprimer le spam mieux que ses concurrents. C'est sans aucun doute quelque chose que tous les moteurs font.  (Ils passent beaucoup de temps, d'efforts et de ressources). Tandis que le spam fonctionne toujours à l'occasion, il prend généralement plus d'efforts pour réussir que produisant un bon contenu, et le gain à long terme est pratiquement inexistant.

  1. Moteurs plus intelligents

Les moteurs de recherche ont fait un travail remarquable en identifiant des solutions évolutives, intelligentes méthodologiques  pour lutter contre les manipulations de spams, ce qui en fait une augmentation spectaculaire difficiles à nuire à leurs algorithmes prévus. Des métriques comme le TrustRank de Moz, l'analyse statistique et les données historiques ont tous diminué la valeur de la recherche spam et fait des tactiques de tactique blanche sur le chapeau beaucoup plus attrayantes.

Plus récemment, la mise à jour de Panda de Google a introduit un apprentissage par machine sophistiqué, des algorithmes pour lutter contre le spam et d'autres pages à faible valeur et les moteurs de recherche continue à innover et à augmenter la barre pour obtenir des résultats de qualité.

Nous ne recommandons évidemment pas d'utiliser des tactiques de spam. Mais pour aider les grands nombre de SEO qui cherchent de l'aide lorsque leurs sites sont pénalisés, interdits ou signalés. Cela vaut la peine d'examiner certains des facteurs que les moteurs utilisent pour identifier le spam. Pour des détails supplémentaires sur le spam des moteurs, voir les Directives pour les webmasters de Google

ANALYSE DE SPAM

Les moteurs de recherche effectuent des analyses de courrier indésirable sur des pages individuelles et des sites Web entiers (domaines). Nous examinerons d'abord comment ils évaluent les pratiques de manipulation sur le niveau d'URL.

Remplissage de mots-clés

L'une des techniques de spam les plus évidentes et les plus malheureuses, le remplissage de mots-clés, jeter des termes ou des phrases de mots-clés de façon répétitive sur une page afin que ce soit plus pertinent pour les moteurs de recherche. Comme discuté ci-dessus, cette stratégie est presque certainement inefficace.

La numérisation d'une page pour les mots clés farcis n'est pas terriblement difficile et les algorithmes des moteurs sont tous à la hauteur de la tâche. Vous pouvez en savoir plus sur cette pratique, et les points de vue de Google sur ce sujet, dans une publication sur le blog du responsable de leur équipe de spam Web: SEO Astuce: https://www.mattcutts.com/blog/avoid-keyword-stuffing/.

Liaison Manipulative

L'une des formes les plus populaires de spam Web, l'acquisition de liens manipulateurs, les tentatives d'exploitation est l'utilisation par les moteurs de recherche de la popularité de lien dans leurs algorithmes de classement pour améliorer artificiellement la visibilité. C'est l'une des formes de spam les plus difficiles pour les moteurs de recherche a surmonté car ils peuvent venir sous plusieurs formes. Quelques manières de manipuler les liens peuvent apparaître incluent:

  • Programmes réciproques d'échange de liens: les sites créent des pages de lien qui se dirigent de l'un à l’autre dans une tentative de gonfler la popularité de la liaison. Les moteurs sont très bons à les repérer et à les dévaloriser car ils correspondent à un schéma très particulier.
  • Systèmes de liens: ceux-ci incluent des «fermes de liens» et des «réseaux de liens» où des valeurs fausses ou de faible valeur, les sites Web sont construits ou maintenus uniquement comme sources de liens pour gonfler artificiellement la popularité.  Les moteurs les combattent en détectant les connexions entre les enregistrements de site, le chevauchement de liens et autres méthodes ciblées sur les tactiques de schéma de liaison commune.
  • Liens payants: ceux qui cherchent à gagner des classements plus élevés achètent des liens de sites et de pages disposés à placez un lien en échange d'argent. Ceux-ci évoluent parfois vers de plus grands réseaux de liens les acheteurs et les vendeurs, et bien que les moteurs aient du mal à les arrêter (Google en particulier a pris des mesures dramatiques), ils persistent à fournir de la valeur à de nombreux acheteurs et vendeurs (plus sur cette perspective).
  • Liens de répertoire de qualité inférieure: il s'agit d'une source fréquente de manipulation pour beaucoup dans le champ de référencement. Un grand nombre de répertoires Web pay-for-placement existent pour desservir ce marché et passer eux-mêmes comme légitimes, avec des degrés divers de succès. Google prend souvent des mesures contre ces sites en supprimant le score PageRank de la barre d'outils (ou en réduisant de façon spectaculaire), mais ne le fera pas dans tous les cas il existe beaucoup plus de tactiques de construction de liens manipulateurs que les moteurs de recherche ont identifiés. Dans la plupart des cas, ils ont trouvé des méthodes algorithmiques pour réduire leur impact.

Clocher

Un principe fondamental des principes directeurs du moteur de recherche est de montrer le même contenu aux robots d'exploration du moteur que vous montreriez à un visiteur humain. Cela signifie, entre autres choses, de ne pas masquer le texte dans le code HTML de votre site Web qu'un visiteur normal ne peut pas voir.

Lorsque cette ligne directrice est cassée, les moteurs l'appellent "cloaking".

Dans certains cas, les moteurs peuvent laisser des pratiques qui sont techniquement “cloaking” car elles contribuent à une expérience positive pour un utilisateur.

Pages de faible valeur

Bien qu'il ne soit pas techniquement considéré comme un spam, les moteurs ont tous des méthodes pour déterminer si une page fournit un contenu et une valeur uniques à ses chercheurs. Les types de pages les plus couramment filtrés sont le contenu d'affiliation mince, le contenu en double et généré dynamiquement des pages de contenu qui fournissent très peu de texte ou de valeur unique.

Les moteurs sont contre l'inclusion de ces pages et utilisent une variété d'algorithmes d'analyse de contenu et de lien pour éliminer la faible valeur des pages.

La mise à jour 2011 de Google Panda a pris des mesures agressives pour réduire le contenu de faible qualité à travers le Web, et Google continue d'itérer sur ce processus.

ANALYSE DE SPAM DE NIVEAU DE DOMAINE

En plus de numériser des pages individuelles pour le spam, les moteurs peuvent également identifier les traits et les propriétés sur des domaines racine complets ou des sous-domaines qui pourraient les indiquer comme spam.

Pratiques de liaison

Tout comme pour les pages individuelles, les moteurs peuvent surveiller les types de liens (qualité ou non) et de les  envoyés sur un site web. Les sites qui s'engagent clairement dans les activités de manipulation décrit ci-dessus d'une manière cohérente ou gravement touchante peut voir leur trafic de recherche souffrir, ou même avoir leurs sites interdits de l'indice.

Fiabilité

Les sites Web qui ont gagné un statut de confiance sont souvent traités différemment de ceux qui n'en ont pas. Les SEO ont commenté la double norme pour juger la grande marque, sites de haute importance par rapport aux sites plus récents et indépendants. Si vous publiez des contenus en double de faible qualité sur votre blog personnel, puis achetez plusieurs liens à partir de répertoires spam, vous risquez de rencontrer des problèmes de classement considérables. cependant, si vous publiez ce même contenu sur Wikipedia, même avec le même liens spam menant vers l'URL, il serait probablement encore très bien.

La confiance peut également être établie via des liens entrants. Le contenu en double et quelques liens suspects sont beaucoup plus susceptibles d’être négligé si votre site a gagné des centaines de liens de haute qualité, des sources éditoriales comme CNN.com ou Cornell.edu.

Valeur du contenu

Comme nous l'avons vu, la valeur d'une page individuelle est calculée en partie en fonction de son caractère unique et de l'expérience du visiteur.

Les moteurs ne veulent tout simplement pas des milliers de copies du remplissage de Wikipedia, donc ils utilisent une revue algorithmique et manuelle pour éviter cela.

Les moteurs de recherche évaluent constamment l'efficacité de leurs propres résultats.

Ils mesurent quand les utilisateurs cliquent sur un résultat, frappent rapidement sur le retour du navigateur, et essaye un autre résultat. Cela indique que le résultat qu'ils ont fourni n'a pas répondu aux attentes de l'utilisateur. Il ne suffit pas de classer pour une requête. Une fois que vous avez gagné votre classement, vous devez le prouver encore et encore.

Alors, comment savez-vous si vous avez été mauvais?

Il peut être difficile de savoir si votre site ou votre page a effectivement une pénalité. Parfois, recherchez les algorithmes des moteurs changent. Ou peut-être que vous avez changé quelque chose sur votre site négativement et cela a eu un impact sur votre classement. Avant d'assumer que vous avez été pénalisé, vérifiez les points suivants:

Les erreurs

Des erreurs sur votre site qui ont peut-être empêché le rampement. L’outils Google pour les webmasters est un bon endroit gratuit pour commencer.

Changements

Des modifications apportées à votre site ou aux pages qui ont peut-être changé la façon dont les moteurs de recherche voient votre contenu. (Changements de page, changements de structure de lien interne, mouvements de contenu, etc.)

Similarité

Vérifiez les sites qui partagent des profils de backlink similaires et voyez s'ils ont également perdu des classements. Quand les algorithmes de classement des mises à jour des moteurs, évalue le lien ils  peuvent se déplacer, ce qui provoque des mouvements de classement.

Dupliquer le contenu

Les sites Web modernes comportent des problèmes de contenu en double, en particulier lorsqu'ils élargissent la taille. Consultez cette publication sur le contenu en double pour identifier les problèmes courants.https://moz.com/blog/duplicate-content-in-a-post-panda-world

Obtenir des pénalités levées

La tâche consistant à demander un réexamen ou une réintégration dans les moteurs est pénible et souvent infructueux. Il est rarement accompagné de tout commentaire pour vous faire savoir ce qui s'est passé ou pourquoi. Cependant, il est important de savoir ce qu'il faut faire en cas de pénalité ou d'interdiction.

  1. Si vous ne l'avez pas encore, enregistrez votre site avec le moteur service des outils pour les webmasters (Google et Bing). Cet enregistrement crée une couche supplémentaire de confiance et de connexion entre votre site et le moteur de recherche.
  2. Assurez-vous de bien examiner les données dans votre compte des outils pour les webmasters, des pages brisées au serveur ou des erreurs d'analyse sur les avertissements ou les messages d'alerte spam. Très souvent, ce qui est initialement perçu comme un spam erroné est en fait lié aux problèmes d'accessibilité.
  3. Envoyez votre demande de réexamen / réinjection par le service outils pour les webmasters du moteur plutôt que la forme publique; encore une fois, cela crée une plus grande couche de confiance.
  4. La divulgation complète est essentielle pour être examinée. Avez-vous été spammer, posséder tout ce que vous avez fait? Comment vous les avez, qui les a vendus à vous, etc. Les moteurs, en particulier Google, veulent les détails afin qu'ils puissent améliorer leurs algorithmes. Ils sont susceptibles de vous considérer comme malhonnêtes, corrompus ou simplement incorrigible (et ils ne répondront probablement pas)
  5. Supprimez ou réparez tout ce que vous pouvez. Si vous avez acquis un mauvais lien, essayez de les retirer. Si vous avez fait une manipulation sur votre propre site (over-optimized internal lien, remplissage de mots clés, etc.), retirez-le avant de soumettre votre demande.
  6. Préparez-vous à attendre. Les réponses peuvent prendre des semaines, même des mois, et la ré-inclusion elle-même, si cela se produit, est un long processus. Des centaines, peut-être des milliers, de sites sont pénalisés chaque semaine; vous pouvez imaginer la demande arriéré.
  7. Si vous gérez une grande marque puissante sur le Web, une réintégration peut être plus rapide en allant directement à une source individuelle à une conférence ou événement. Les ingénieurs de tous les moteurs participent régulièrement à des conférences sur l'industrie de la recherche (SMX, SES, Pubcon, etc.). La valeur de la réintégration rapide peut valoir le prix de l'admission.

CHAPITRE 10 : Mesurer et suivre le succès

Ils disent que si vous pouvez le mesurer, vous pouvez l'améliorer. SEO professionnels suit les données sur les classements, les renvois, les liens et plus pour aider à analyser leur stratégie de référencement et créer des cartes routières pour réussir.

Modèles recommandées à suivre

  1. Comparaison du moteur de recherche sur le référent

Chaque mois, faites le suivi de la contribution de chaque source de trafic pour votre site, y compris:

  • Navigation directe: Typé dans le trafic, les signets, les liens de messagerie sans codes de suivi, etc.
  • Circulation de recommandation: à partir de liens sur le Web ou en cours de suivi : courrier électronique, de promotion et de marque.
  • Trafic de recherche: les requêtes qui ont envoyé du trafic de toute personne majeure ou mineure.

Connaissant à la fois du pourcentage et des chiffres exacts qui vous aideront à identifier les faiblesses et vous donner une base de comparaison. Par exemple, si vous voyez que le trafic a grimpé de façon spectaculaire mais qu’il provient de liens de référence avec une faible pertinence, il n'y a pas temps à  être excité.

D'autre part, si le trafic des moteurs de recherche tombe de façon spectaculaire, vous pourriez être en difficulté. Vous devez utiliser ces données pour suivre vos efforts de marketing et planifier votre acquisition de trafic.

  1. Les références des moteurs de recherche

Trois moteurs majeurs représentent 95% + de tous les trafics de recherche au États-Unis: Google et l'alliance Yahoo! -Bing. Pour la plupart des pays en dehors des États-Unis, 80% + de trafic de recherche provient uniquement de Google (à quelques exceptions notables, y compris la Russie et la Chine). Mesurer la contribution de votre trafic de recherche à partir de chaque moteur est utile pour plusieurs raisons:

  • Comparer le rendement par rapport au marché
  • Comparez la contribution en volume de chaque moteur avec sa part de marché estimée.
  • Obtenir de la visibilité dans les gouttes potentielles

Si votre trafic de recherche diminue de manière significative en tout point, le fait de connaître les contributions relatives et exactes de chaque moteur sera essentiel pour diagnostiquer le problème. Si tous les moteurs tombent, le problème est presque certainement l'accessibilité. Si Google laisse les autres aux niveaux précédents, c'est susceptible d'être une pénalité ou une dévaluation de vos efforts de référencement par ce moteur singulier.

Découvrez la valeur stratégique

Il est très probable que certains efforts que vous entreprendrez dans SEO auront des résultats positifs plus importants sur certains moteurs que sur d'autres. Par exemple, nous avons remarqué que les tactiques d'optimisation sur la page ont une meilleure insertion et un ciblage de mots clés qui s'accroît avec Bing et Yahoo! plutôt qu'avec Google.

D'autre part, en obtenant des liens de texte d'ancrage spécifiques à partir d'un grand nombre de domaines, cela a un impact plus positif sur Google que sur les autres. Si vous pouvez identifier les tactiques qui réussissent avec un moteur, vous allez mieux savoir comment concentrer vos efforts.

3. Visites référencées par recherche spécifique

Les mots-clés qui envoient du trafic sont une autre partie importante de votre analyse. Vous voudrez le suivre régulièrement pour aider à identifier de nouvelles tendances dans la demande de mots clés, être performant sur les termes clés, et trouver les termes qui apportent du trafic significatif dont vous êtes potentiellement moins optimisé ?

Vous pouvez également trouver une valeur dans le suivi du nombre de références de recherche pour les termes en dehors des termes et expressions supérieurs - ceux qui sont les plus précieux pour votre entreprise.

Si les lignes de tendance indiquent le problème, vous savez que des efforts doivent être entrepris pour suivre les cours. Le trafic de recherche dans le monde a toujours augmenté au cours des 15 dernières années, un déclin de la quantité de renvois est troublant.

Vérifier les problèmes de saisonnalité (mots-clés qui ne sont que demandés certaines fois de la semaine / mois / année) et les classements.

4. Taux de conversion par requête de recherche

Cela concerne la rentabilité de votre organisation. Nous pouvons faire deux choses:

  1. En vérifiant notre classement, avec “l’outils de référencement".
  2. Parce que nos analyses nous diront également quelle page les visiteurs ont atterri (surtout http://moz.com/tools), nous pouvons concentrer nos efforts sur l'amélioration de l'expérience des visiteurs à ce sujet.

5. Nombre de pages recevant au moins une visite des moteurs de recherche

Savoir le nombre de pages qui reçoivent le trafic des moteurs de recherche est une mesure essentielle pour la surveillance de la performance globale de référencement. Avec ce nombre, nous pouvons avoir un aperçu de l'indexation: le nombre de pages de notre site ou les moteurs gardent leurs index. Pour la plupart des grands sites Web (50 000 pages), la simple inclusion est essentielle pour gagner du trafic, et cette métrique délivre un numéro de suivi qui est un indice de réussite ou d'échec. Les pages recevant le trafic de recherche sont, peut-être, les meilleures “longue queue métrique” autour.

Bien que d'autres points de données analytiques soient d'une grande importance, ceux-ci mentionné ci-dessus devrait être universellement appliqué pour une valeur maximale de vos campagnes de référencement.

Logiciel d'analyse

Les bons outils de travail (Payant)

Les bons outils de travail (gratuit)

Quel que soit le logiciel d'analyse que vous sélectionnez, nous vous recommandons fortement de tester différentes versions de pages sur votre site et des améliorations de taux de conversion en fonction des résultats. Les pages de test sur votre site peuvent être aussi simple que d'utiliser un outil gratuit pour tester deux versions d'un en-tête de page ou comme utilisant un logiciel multivarié coûteux pour tester simultanément des centaines de variantes d'une page.

  1. Métrique de mesure

    Optimisation du moteur de recherche

    Il est difficile d'optimiser les comportements spécifiques des moteurs de recherche parce que leurs algorithmes ne sont pas publics. Mais une combinaison de tactiques s'est avérée efficace, et de nouvelles données sont toujours en train de suivre les variables qui influent sur le classement et les fluctuations grâce à des signaux. Vous pouvez même utiliser les moteurs de recherche eux-mêmes pour obtenir un avantage concurrentiel en structurant des requêtes intelligentes et en utilisant les données publiées par les moteurs. Vous pouvez garder ces analyses  pour formuler un plan d'action pour optimiser votre site web.

    Google Site Query

    Limitez votre recherche à un site spécifique (par exemple, site: moz.com).

    Utile pour voir le numéro et la liste des pages indexées sur un domaine particulier. Vous pouvez étendre la valeur en ajoutant une requête supplémentaire aux paramètres. Par exemple, le site: moz.com/blog inurl: tools, montrera seulement les pages de l'index de Google qui sont dans le blog et contiennent le mot "outils" dans l'URL. Ce nombre fluctue, mais c'est une mesure approximative décent, en savoir plus : https://moz.com/blog/indexation-for-seo-real-numbers-in-5-easy-steps

    Les tendances de Google

    Chez google.com/trends, vous pouvez rechercher le volume de recherche par mot-clé et la popularité au fil du temps. Connectez-vous à votre compte Google pour obtenir des données plus riches, y compris des chiffres spécifiques.

    Recherche de liens dans des blogs

    Rechercher des liens dans un blog (par exemple, lien: http: //moz.com/blog). L'opérateur de requête de liaison régulière n'est pas toujours utile, mais la recherche de son blog génère généralement des résultats de haute qualité, pouvant être classés selon la période et la pertinence. En savoir plus sur l'opérateur de lien dans ce blog posté : https://moz.com/blog/google-link-command-busting-the-myths

    Le doute des sites Bing

    Limitez votre requête à un site spécifique (par exemple, site: moz.com). Comme Google, Bing permet aux requêtes de montrer le nombre et la liste de pages dans leur index à partir d'un site donné. Soyez informé que Bing's compte des fluctuations considérables, ce qui peut limiter l’utilité des données.

    “Bing IP Query”

    Cette requête affichera des pages que Microsoft  trouvera sur l'adresse IP donnée. Cela peut être utile pour identifier si une page est hébergée sur un fournisseur partagé ou pour trouver les sites qui ont hébergé la même adresse IP.

    Bing Ads Intelligence

    Bing Ads Intelligence possède une variété de recherche de mots clés et outils d'intelligence de l'audience, principalement destinés à la recherche et à l’affichage publicitaire. Ce guide ne plongera pas profondément dans la valeur de chaque outil individuel, mais il vaut la peine d'être enquêté et beaucoup peuvent être appliqué au référencement.

Moz - Méthodes spécifiques à la page

  • L’autorité de la page prédit la probabilité qu'une seule page se classera bien, quel que soit son contenu. Plus la page à de l’autorité, plus le potentiel de cette page individuelle est bien classé.
  • MozRank, une partie de Moz's Open Site Explorer, se réfère à la mesure globale, logarithmique de 10 points de Moz. Les mesures d'importance statique (ce qui signifie importance indépendamment d'une requête spécifique) qui sont utilisés par les recherche moteurs (par exemple, GoogleRank ou FAST's StaticRank). Les moteurs classent souvent les pages avec une autorité de liaison globale plus élevée. Parce que des mesures comme MozRank sont Global et statique, ce pouvoir de classement s'applique à une large gamme de recherche, plutôt que des pages optimisées spécifiquement pour un mot-clé particulier.
  • MozTrust  : un autre composant de Open Site Explorer, MozTrust est distribué par des liens. Premièrement, les sites de semences fiables sont identifiés pour alimenter le calcul de la métrique; il s'agit notamment de sites universitaires internationaux, médias et gouvernementaux. Les sites Web qui gagnent des liens à partir du jeu de graines sont alors en mesure de lancer (Moins) de confiance - vote par leurs liens. Ce processus se poursuit sur le Web.
  • Nombre de liens : le nombre total de pages qui contiennent au moins un lien vers une page, avec un maximum d'un lien correspondant par page. Par exemple, si la page d'accueil de la Bibliothèque du Congrès (Http://www.loc.gov/index.html) lié à la Maison Blanche page d'accueil (http://www.whitehouse.gov) dans le contenu de la page et le pied de page, cela serait compté comme un seul lien.
  • Nombre de liens entre les domaines racine: le nombre total d'éléments uniques domaines racine qui contiennent un lien vers une page, avec un maximum de lien de qualification par domaine. Par exemple, si topics.nytimes.com et Www.nytimes.com tous deux liés à la page d'accueil de Moz (Http://moz.com), cela compte comme un seul domaine de liaison.

Moz - Méthodes spécifiques au domaine

  • Autorité de domaine : l’autorité de domaine prédit à quel point un site web, une page sur un domaine spécifique peuvent être classée. Plus le domaine est élevé en autorité, plus le potentiel d'une page individuelle sur ce domaine sera bien classé.
  • Domain MozRank : MozRank au niveau du domaine (DmR) quantifie la popularité d'un domaine donné par rapport à tous les autres domaines Web. DmR est calculé pour les sous-domaines et les domaines racine. Cette métrique utilise le même algorithme que MozRank mais l'applique au graphique du lien au niveau du domaine, une vue du Web qui ne fait que regarder les domaines dans leur ensemble et ignore les pages individuelles.
  • Domain MozTrust : tout comme MozRank peut être appliqué au niveau du domaine (Domain-level MozRank), donc MozTrust. Domainlevel est comme MozTrust mais au lieu d'être calculé entre les pages Web, il est calculé entre des domaines entiers. MozTrust au niveau du domaine s'exprime sur un logarithmique à 10 points échelle.
  • Nombre de liens : la quantité de pages qui contiennent au moins un lien vers le domaine. Par exemple, si http://www.loc.gov/index.html et http://www.loc.gov/about ont tous deux des liens vers Http://www.nasa.gov, cela compte comme deux liens vers le domaine.
  • Nombre de liens entre les domaines racines : la quantité de différents domaines contenant au moins une page avec un lien vers n'importe quelle page sur le site. Par exemple, si http://www.loc.gov/index.html et Http://www.loc.gov/about les deux contenait des liens vers Http://www.nasa.gov, cela ne comptera que comme une seule racine de liaison domaine à nasa.gov

Les chiffres ne seront utiles que si vous pouvez effectivement interpréter et appliquer les modifications. Ci-dessous, nous avons pris un échantillon de certains des signaux directionnels les plus couramment obtenu en renseignant les points de données et en offrant des suggestions.

Fluctuation

Les nombres signalés dans les requêtes "site:" et "link:" sont rarement précis, alors nous prévoyons de ne pas trop s'inquiéter de la grande fluctuation à moins qu'elles ne soient accompagnées de chutes de trafic. Par exemple, un jour donné, Yahoo! compte entre 800 000 et 2 000 000 de liens vers le domaine moz.com. Évidemment, nous ne gagnons pas ou ne perdons pas  des centaines de milliers de liens chaque jour, donc cette variabilité fournit peu d'indications sur notre croissance ou votre retrait réel du lien. Si les retombées dans les liens ou les pages indexées coïncident avec le renvoi routier des moteurs de recherche, vous risquez d'avoir une réelle perte de lien ou une perte d’indexation en raison de pénalités, de piratage ou de logiciels malveillants. Une enquête approfondie analyse en utilisant vos propres analyses Web et Google Webmaster.

Chute - Rechercher du trafic à partir de plusieurs moteurs

Les chances sont bonnes pour que vous ayez fait quelque chose sur votre site pour bloquer les robots ou arrêter l’indexation. Cela pourrait être quelque chose dans les tags robots.txt ou meta robots, un problème avec l'hébergement / la disponibilité, un problème de résolution DNS ou un certain nombre d'autres pannes techniques. Parler à votre administrateur système, vos développeurs ou votre fournisseur d'hébergement, et examinez attentivement votre comptes et utiliser l’analyses d'outils pour aider à déterminer les causes potentielles.

Individuel - Les fluctuations de classement

Gagner ou perdre des classements pour un ou plusieurs termes ou expressions se produit des millions de fois par jour à des millions de pages et n'est généralement pas préoccupant. Les Algorithmes de classement fluctuent, les concurrents gagnent et perdent des liens (et des tactiques d'optimisation sur la page) et recherchent les flux des moteurs entre les index (et peuvent parfois même faire des erreurs dans leur processus de “ramper”, d'inclusion ou de classement). Quand un classement  diminue, vous pourrait vouloir examiner attentivement les éléments de la page pour tous les signes de sur-optimisation ou de violation des lignes directrices (clopping, mot-clé stuffing, etc.) et vérifiez si les liens ont récemment été gagné ou perdu. Notez qu'avec des pointes soudaines dans le classement de nouveaux contenus, une période temporaire de haute visibilité suivie d'une baisse spectaculaire est courante; dans le domaine du référencement, nous nous référons à cela comme le "boost de fraîcheur".

Positif - Les augmentations des métriques de liens sans classement augmentent

De nombreux propriétaires de sites supposent que lorsqu'ils ont fait une optimisation classique SEO-on-page, l'acquisition de lien, etc., ils peuvent s'attendre à des résultats instantanés. Malheureusement, ce n'est pas le cas. Particulièrement pour de nouveaux sites, pages et contenus qui ont une forte concurrence, les améliorations de classement prennent du temps. Même gagner beaucoup de liens géniaux n'est pas une recette sûre pour atteindre instantanément le sommet. Rappelez-vous que les moteurs ne doivent pas seulement ramper toutes les pages où vous avez acquis des liens, mais aussi les indexer et les traiter. Ainsi, les paramètres et les classements que vous recherchez peuvent être des jours ou même des semaines derrière les progrès que vous avez réalisés.

CONCLUSION

Félicitations vous avez entièrement lu le guide des débutants pour le SEO !
Maintenant vous êtes prêt pour optimiser votre site ! Il ne vous reste plus qu’à apprendre et approfondir vos résultats dans les moteurs de recherche !

VOUS SOUHAITEZ ALLEZ PLUS LOIN OU VISEZ PLUS HAUT PLUS VITE ?

Nous pouvons vous accompagner pour mettre en place une stratégie de référencement rentable pour votre site internet.

HAUT