Je viens de me rende compte, avec grand regret, qu’une excellente ressources SEO avait été supprimée de Google. Il s’agit du Webmaster Central qui était hébergé à cette adresse : https://sites.google.com/site/webmasterhelpforum/

Cette ressource était extrêmement utile car elle regorgeait de communications officielles des équipes de Google Search (Matt Cutts, John Mueller, Vincent Courson…) en français ! Citer le Webmaster Central comme source « fiable » était utile avec les clients et les étudiants dans les formations en référencement.

Certains contenus peuvent toutefois être récupéré partiellement et consultés à cette adresse, même s’il faut bien avouer que c’est beaucoup moins confortable qu’avant.

Je me permets de vous relayer ici une copie des articles les plus importants, ayant fait le plus de bruit, notamment suite à l’arrivée de filtres tels que Google Panda et Google Pingouin (Penguin). J’ai fait un gros travail sur les images et les liens morts afin que la lecture soit confortable et utile.

Tout ce qui suit vient de Google (webmaster help forum).

Le contenu dupliqué : mythes et réalités

Greg Gothaus, ingénieur de l’équipe de Qualité Google, vient de publier un post sur le contenu dupliqué dans Webmaster Central Blog.

http://googlewebmastercentral.blogspot.com/2009/09/duplicate-content-and-multiple-site.html

 Je vous résume (en français) les points importants de cette présentation :

  • La pénalité de contenu dupliqué est un mythe. Pour une requête, Google veut montrer une diversité des résultats et éviter d’avoir plusieurs fois la même version d’une page (page originale et version à imprimer par exemple). Pour cette requête, Google choisira donc une seule version si plusieurs sont disponibles.
  • Dans les consignes de qualité,  vous trouverez plus de détails sur le contenu dupliqué : http://www.google.com/support/webmasters/bin/answer.py?&answer=66359
  • La grande majorité du contenu dupliqué n’est pas là pour manipuler les résultats de recherche, et on veut donc montrer des résultats différents.
  • Le contenu dupliqué créé pour manipuler les résultats de recherche ou « spam » est là pour générer du trafic et n’apporte rien aux utilisateurs par rapport au contenu original. On va donc enlever ce contenu de nos résultats de recherche ou le rendre moins visible. L’intention est clairement de manipuler le classement et de tromper les utilisateurs.
  • Qu’est-ce que le contenu dupliqué ? Exemples d’URLs différentes (diapo 6) mais avec le même contenu sur un site:

  • Il n’y a pas de pénalité associée à ces URLs avec le même contenu mais par contre cela va affecter :
  1. la popularité des liens (diluée sur les pages)
  2. Google agrège les résultats et choisit de montrer une URL. Si vous souhaitez montrer une URL spécifique, vous pouvez nous aider à choisir la bonne URL.
  3. Google va passer du temps à crawler toutes ces URLs avec le même contenu au lieu de passer du temps à crawler le plus récent.

Comment régler ce problème :

  1. choisir et définir une URL canonique http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=139394
  2. structurer le site de façon à ce que les liens pointent vers l’URL canonique
  3. redirections 301 des URLs
  4. utiliser l’attribut rel = « canonical » pour les URLs, par exemple pour les breadcrumbs
  5. l’URL canonique ne peut pas être utilisée d’un domaine vers un autre domaine.
  6. l’URL canonique peut être utilisée pour choisir une version http au lieu de https
  7. pour une redirection permanente, il est possible d’utiliser la redirection 301 ou rel=canonical

Les domaines multiples ne posent pas de problème pour les différentes versions d’un site comme .fr, .be, .ch mais il arrive que :

  1. la réputation soit distribuée sur les domaines multiples
  2. si le même contenu est réparti sur plusieurs domaines, Google va choisir la page la plus pertinente sur une requête, pas forcément sur tous les domaines.

 Présentation sur le contenu dupliqué faite par Greg lors de la conférence SES à San Jose en août 2009.

(source)

Informations supplémentaires concernant la création de sites de qualité

Ces derniers mois, nous avons apporté de nombreuses modifications à nos algorithmes afin de mettre en valeur les sites de qualité dans les résultats de recherche Google. L’une d’elles en particulier, « Panda », a permis d’améliorer le classement de nombreux sites Web de qualité.
La majorité d’entre vous, qui lisez cet article, n’avez donc aucun souci à vous faire. Il y a toutefois certains sites qui ont baissé dans le classement suite à cette modification. C’est pourquoi nous souhaitons faire le point ici sur la façon dont Google recherche les sites de qualité.Le conseil que nous donnons aux éditeurs est toujours le même : faites le nécessaire pour satisfaire au mieux les internautes qui visitent votre site Web et ne vous préoccupez pas inutilement des algorithmes ou des paramètres utilisés par Google pour le classement. Certains éditeurs ont considéré, à tort, que Panda était la cause de la baisse de leur site dans le classement, alors qu’il ne s’agit que de l’une des quelque 500 améliorations que nous avons prévu d’apporter à la Recherche Google cette année. D’ailleurs, depuis le lancement de Panda, nous avons également appliqué une dizaine de modifications mineures supplémentaires à nos algorithmes de classement. La recherche est un mécanisme très complexe, en constante évolution. Aussi, plutôt que de vous inquiéter des conséquences de telle ou telle modification apportée à nos algorithmes, nous vous conseillons plutôt de réfléchir aux moyens de satisfaire au mieux vos visiteurs.Qu’est-ce qu’un site de qualité ?Nos algorithmes ont pour objectif d’aider les internautes à trouver des sites de qualité en faisant descendre les sites moins utiles dans le classement. La modification Panda est une réponse à cette tâche difficile qu’est l’évaluation de la qualité d’un site Web.
Afin que vous compreniez mieux les idées et les raisonnements à l’origine de certains développements apportés à nos algorithmes, nous allons prendre un peu de recul.Vous trouverez ci-dessous une liste de questions susceptibles d’être utilisées pour évaluer la qualité d’une page ou d’un article. C’est typiquement le genre de questions que nous nous posons lorsque nous développons les algorithmes chargés d’évaluer la qualité des sites Web. Nous codons les attentes des internautes en quelque sorte.Bien entendu, nous ne pouvons pas divulguer les paramètres utilisés dans nos algorithmes de classement, car nous ne voulons pas que certains puissent tricher avec les résultats de recherche. Toutefois, les questions ci-dessous peuvent vous donner une idée de la façon dont nous avons abordé le problème :

  • Les informations contenues dans cet article vous semblent-elles fiables ?
  • Cet article a-t-il été écrit par un expert ou une personne connaissant bien le sujet, ou bien ne donne-t-il que des informations superficielles ?
  • Le site contient-il des articles en double, qui se chevauchent ou se répètent sur un ou plusieurs sujets similaires, avec de légères variantes au niveau des mots clés ?
  • Auriez-vous suffisamment confiance en ce site pour lui communiquer les informations relatives à votre carte de paiement ?
  • Cet article contient-il des fautes d’orthographe, de style ou des faits inexacts ?
  • Le contenu proposé correspond-il aux centres d’intérêts réels des lecteurs ou bien n’est-il généré que dans le seul but d’améliorer le classement du site dans les résultats de recherche ?
  • L’article fournit-il des contenus, des informations, des recherches, des analyses ou des rapports originaux ?
  • La page offre-t-elle quelque chose en plus par rapport aux autres ?
  • Dans quelle mesure la qualité du contenu proposé est-elle contrôlée ?
  • L’article offre-t-il plusieurs points de vue sur ce qui s’est passé ?
  • Le site a-t-il une autorité reconnue dans le domaine abordé ?
  • Le contenu est-il produit en masse, récupéré auprès d’un grand nombre de sources externes ou encore étalé sur un vaste réseau de sites, ce qui fait que chaque page ou site ne fait pas l’objet d’un contrôle très poussé ?
  • L’article est-il soigné ou semble-t-il avoir été rédigé à la va-vite ?
  • Si vous aviez une question relative à un problème médical, feriez-vous confiance aux informations contenues sur ce site ?
  • Le nom de ce site vous évoque-t-il une autorité compétente ?
  • Cet article propose-t-il une description complète du sujet ?
  • Cet article propose-t-il une analyse poussée ou des informations ayant demandé un certain travail de réflexion ?
  • Est-ce le genre de page que vous aimeriez ajouter à vos favoris, partager avec un ami ou recommander ?
  • Cet article contient-il un nombre excessif d’annonces qui distraient le lecteur ou l’empêchent d’accéder au contenu principal ?
    Pourriez-vous trouver cet article dans un magazine, une encyclopédie ou un livre en version papier ?
  • Les articles sont-ils inutiles, car trop courts, trop superficiels ou trop vagues ?
  • Les pages ont-elles ou non été produites avec beaucoup de soin et de rigueur ?
  • Les internautes qui accèdent à ce genre de pages ont-il des raisons de se plaindre ?

Nous espérons que les questions ci-dessus vous ont aidé à mieux comprendre le raisonnement que nous tenons pour créer nos algorithmes chargés d’évaluer la qualité des sites Web. Toutefois, nous avons conscience que le codage des algorithmes est une tâche beaucoup plus complexe.

Ce que vous pouvez faire

Vous avez été nombreux à nous demander ce que vous pouviez faire pour améliorer votre classement sur Google, en particulier suite au lancement de Panda. Nous vous conseillons de garder dans un coin de votre esprit les questions ci-dessus et de faire de votre mieux pour proposer un contenu de qualité, plutôt que d’essayer d’optimiser ce dernier pour les algorithmes de Google.

Notez également que si certaines pages d’un site Web sont de mauvaise qualité, cela peut affecter le classement de l’ensemble du site. Par conséquent, vous pouvez supprimer ces pages afin d’optimiser le classement de celles qui sont de meilleure qualité ou encore améliorer leur contenu, les intégrer à des pages plus utiles ou les transférer vers un autre domaine.

Nous continuons de développer d’autres algorithmes afin que les sites de qualité soient mieux placés dans les résultats de recherche et reçoivent davantage de visiteurs. De votre côté, continuez d’améliorer votre site en vous posant les mêmes questions que nous, plutôt qu’en essayant d’analyser les changements apportés à nos algorithmes. De cette manière, votre site aura plus de chances de conserver un bon classement à long terme. En attendant, n’hésitez pas à nous faire part de vos remarques sur le forum d’aide pour les webmasters. Nous suivons les discussions et transmettons les informations recueillies à l’équipe chargée de la qualité des recherches, afin de développer en parallèle de nouvelles améliorations pour nos algorithmes de classement.

L’article original publié par Amit Singhal, Super Googleur

(source)

Qu’est-ce qu’un lien de haute qualité pour Google ? Tout le monde se pose cette question en ce moment, notamment dans notre Forum d’aide aux webmasters. Nous avons déjà posté des suggestions pour vous aider à obtenir des liens de qualité vers votre site afin d’éviter le recours à des stratégies de netlinking contre-productives comme l’utilisation de systèmes de liens ou l’achat et la vente de liens.

Au lieu d’investir du temps et des ressources dans la création d’un profil de liens artificiels, nous croyons que tout arrive à point pour celui qui a pris le temps de créer un site de qualité et attrayant pour les utilisateurs. Nous avons remarqué que certains webmasters sont tentés d’emprunter la voie la plus facile pour créer rapidement des backlinks vers leurs sites. Nous recommandons de ne pas d’investir à court-terme dans des systèmes de liens créés uniquement pour les moteurs de recherche et les algorithmes. Nous développons des techniques de plus en plus avancées contre ces pratiques de Webspam et elles ne constituent pas un raccourci viable pour votre stratégie à long-terme.

Nous avons remarqué que les sites de communiqués de presse sont fréquemment abusés.
Certains sites de communiqués de presse peuvent être utiles, mais nous voyons surtout des sites de faible qualité ou qui font du Webspam. En effet, ces sites ne pratiquent que très rarement un contrôle éditorial et constituent dès lors des cibles potentielles pour créer des liens artificiels. Si vous utilisez ces ressources pour créer des backlinks vers votre site, nous vous recommandons de revoir votre stratégie de netlinking.

Voici un extrait typique d’article que l’on trouve sur ces sites :

Le rachat credit que notre banque vous propose est très avantageux: nous offrons un remboursement échelonné, des mensualités réduites et la consolidation de vos prêts en cours. Pour créer nos offres de rachat de credit, notre institut a fait appel à ses partenaires pour obtenir les meilleurs taux sur le marché.

  • Que faire si j’ai déjà utilisé ces techniques pour mon site ?

Soyez prudents, car ces liens n’ont souvent pas de poids et risquent de vous désavantager par rapport aux autres sites. En général, évitez d’utiliser les sites de communiqués de presse de faible qualité ou qui pratiquent du Webspam. Nettoyez les liens de faible qualité qui proviennent de ces sources.

  • Que faire si mon site ne respecte pas les consignes de qualité et que je reçois un message dans les Outils Google pour les webmasters ?

Nettoyez tous les liens artificiels ainsi que toute autre violation de nos consignes de qualité. Faites une demande de réexamen en expliquant clairement les actions qui ont pu déclencher une action manuelle et les actions prises pour nettoyer le site. Vous pouvez vérifier les liens vers votre site dans les Outils Google pour les webmasters.

En résumé, nous vous recommandons de vérifier que votre site respecte bien nos consignes de qualité et d’éviter des techniques artificielles de netlinking. Concentrez vos efforts sur le contenu de votre site pour qu’il soit de qualité et qu’il attire des liens organiques. Parmi les techniques qui sont efficaces, nous vous conseillons de :

– participer activement à la communauté en ligne relative à votre domaine
– publier des articles originaux et de qualité
– utiliser des newsletters et des outils de réseau social
– participer à des activités hors-ligneSi vous avez des questions, n’hésitez pas à contacter notre communauté très active de webmasters.

Giacomo Gnecchi et Sila Awad, Equipe Qualité de Recherche

(source)

Générer des liens de qualité

Optimiser un site pour que le contenu de qualité figure en bonne position dans les résultats des moteurs de recherche peut être une tâche complexe et chronophage. Malheureusement, certains propriétaires de sites ne donnent pas la priorité aux choses essentielles, et font appel à des agences employant des techniques assez douteuses. Ils perdent alors beaucoup de temps et d’argent.

Un contenu original de qualité attire les liens de lui-même au fil du temps. Toutefois, certains spécialistes de l’optimisation du référencement (SEO) proposent, par exemple, des services de construction de liens avec la promesse de résultats ultra rapides et d’une amélioration du classement en très peu de temps, en faisant même parfois miroiter la possibilité de figurer en première position. L’une des stratégies qu’ils peuvent adopter pour obtenir des liens facilement et rapidement consiste à créer ou à acheter des liens sur des sites dont la seule finalité est d’héberger des liens renvoyant vers d’autres sites. Généralement, ces sites comportent du contenu générique de mauvaise qualité, et n’ont que très peu d’intérêt pour les internautes.

Vous n’êtes pas certain de savoir à quel type de contenu nous faisons référence ? Voici un exemple :

Un lit c’est pratique, car vous pouvez y dormir. La plupart des gens dorment la nuit. Vous pouvez acheter des couvertures pas chères dans des magasins. Une couverture empêche d’avoir froid la nuit. Vous pouvez aussi acheter un radiateur chez un grossiste. Le radiateur est souvent la meilleure solution, car il génère plus de chaleur, et vous pouvez l’éteindre pendant l’été lorsque vous partez en vacances en france.

Le texte ci-dessus vous semble peut-être un peu exagéré, mais en général ces domaines dédiés aux liens proposent un contenu plutôt générique, répétitif et souvent inutile, qui est largement optimisé pour certains mots clés et textes d’ancrage. Bien souvent, ces domaines comportent des articles sans aucun rapport entre eux. Notre article cité comme exemple un peu plus haut peut très bien être suivi d’un article sur les cartes bancaires et d’un autre sur les pneus de voiture, par exemple. Il s’agit d’un contenu de mauvaise qualité qui représente rarement une valeur ajoutée pour l’internaute.

Ce type de contenu peut être hébergé sur un hébergeur gratuit, sur des domaines créés récemment dont le nom comporte des mots clés, ou sur des domaines arrivés à expiration. Ces derniers n’ont pas été renouvelés par leurs anciens propriétaires et ont été repris par quelqu’un d’autre. Toutefois, quel que soit l’hébergeur du contenu, notre analyse des liens est de plus en plus efficace. Même si, dans certains cas, cette technique de construction de liens peut engendrer des effets positifs à court terme, ces liens seront probablement écartés au final. Le temps passé et l’argent dépensé pour obtenir ces liens ne généreront alors aucun retour sur investissement.

Nous vous conseillons de concentrer vos efforts sur des activités bénéfiques pour votre site et vos visiteurs sur le long terme. Créez du contenu original et de qualité qui intéressera les internautes. Participez activement aux médias sociaux, lancez quelques opérations de marketing traditionnel, et les liens viendront à vous. Ces activités exigent du travail et du temps, mais elles permettent d’obtenir des liens naturels durables et de bonne qualité. 

Si vous êtes inquiet quant à la nature des liens dont vous disposez sur votre site, vérifiez les liens entrants dans votre compte des outils pour les webmasters. Examinez l’ensemble de vos liens et leur origine. À quoi la page renvoyant vers votre site ressemble-t-elle ? Propose-t-elle un contenu de qualité représentant une valeur ajoutée pour l’internaute ? A-t-elle un rapport avec le lien renvoyant vers votre site ? Comment ce lien a-t-il été obtenu ? Est-il basé sur des critères qualitatifs ?
Si vous avez de nombreux liens issus de sites de mauvaise qualité ou contenant du spam (ou toute autre forme de lien factice), essayez de les supprimer.

Sur de nombreux sites, d’autres solutions peuvent facilement être mises en œuvre afin d’optimiser le référencement. Par exemple, un webmaster peut simplifier l’exploration, améliorer le confort d’utilisation pour les internautes, ainsi que la rapidité de son site. Ces opérations ne demandent que peu d’efforts, et permettent au webmaster de mieux contrôler les résultats. Si vous ne savez pas par où commencer, nous vous conseillons de consulter notre Guide de démarrage sur l’optimisation du référencement. Vous y trouverez probablement des informations vous permettant d’optimiser votre site pour les moteurs de recherche. Vous pouvez également consulter le document d’évaluation de l’optimisation du référencement (en anglais), que nous avons utilisé pour vérifier si nos propres sites étaient optimisés pour les moteurs de recherche. Nous avons d’ailleurs identifié un certain nombre de points à améliorer !

Si vous décidez de travailler avec un spécialiste SEO afin d’optimiser votre site, veillez à bien vous informer avant de faire votre choix. Demandez à vos interlocuteurs de vous exposer précisément les solutions qu’ils proposent pour votre site.

Comme d’habitude, si vous avez des questions précises, rendez-vous sur le Forum d’aide pour les webmasters où de nombreux webmasters très sympathiques vous attendent pour vous donner des conseils, leur avis et discuter avec vous.

Publié par Uli Lutz et Daniela Loesser, équipe Search Quality

(source)

Une autre mesure pour récompenser les sites de haute qualité

Google a déjà précisé que l’optimisation du référencement (ou « SEO ») peut être constructive et positive. Et nous ne sommes pas les seuls. Une optimisation du référencement efficace peut faciliter l’exploration d’un site, l’accès aux différentes pages qui le composent, ainsi que leur détection. L’optimisation du référencement peut consister en une simple étude de mots clés permettant de s’assurer que les termes appropriés figurent sur la page, et qu’elle ne contient pas seulement du jargon technique que la majorité des internautes ne chercheront jamais.

Les référenceurs « White hat » améliorent très souvent l’usabilité des sites, et contribuent à la création d’un contenu de qualité ou de sites plus performants, qui sont autant d’avantages pour les utilisateurs comme pour les moteurs de recherche. Une optimisation du référencement efficace peut également être bénéfique pour votre stratégie marketing. Pensez à des moyens créatifs de rendre votre site plus attrayant. Cela permet d’établir une présence à la fois sur les moteurs de recherche et dans les médias sociaux. Au final, le développement d’un site de qualité permet souvent d’améliorer sa notoriété, ce qui entraîne davantage de visites et une augmentation du nombre de liens renvoyant vers le site.

Le « webspam black hat » (à ne pas confondre avec le spam par e-mail) est tout le contraire de l’optimisation « White hat ». Afin d’obtenir un meilleur classement ou un trafic plus important, certains sites se tournent vers des techniques qui ne sont pas faites pour les utilisateurs. Ces techniques consistent à identifier des raccourcis ou des failles à exploiter, dans le but de placer les pages à des positions qu’elles ne méritent pas. Nous sommes confrontés à toutes sortes de techniques de webspam chaque jour, qu’il s’agisse d’accumulation de mots clés ou de systèmes de liens qui tentent d’améliorer la visibilité des sites.

Bien souvent, lorsque nous apportons des modifications ayant une incidence sur le classement, nous le faisons dans l’objectif d’aider les utilisateurs à trouver les sites leur permettant d’accéder aux informations qu’ils recherchent et répondant à leurs attentes en termes d’expérience utilisateur. Nous tenons également à ce que les webmasters qui proposent des sites intéressants pour leurs visiteurs, et qui ne donnent pas la priorité aux algorithmes, soient récompensés pour leurs efforts. Dans cette optique, nous avons modifié notre algorithme (mise à jour Panda), ce qui a permis aux sites de meilleure qualité d’apparaître dans les résultats de recherche. En début d’année, nous avons également mis en œuvre un algorithme relatif à la mise en page qui réduit le classement des sites qui ne proposent pas suffisamment de contenu dans la partie au-dessus de la ligne de flottaison.

Dans les prochains jours, nous allons lancer une modification importante de notre algorithme visant les sites qui favorisent le spam. Cette modification va affecter la visibilité des sites qui ne respectent pas nos consignes de qualité. Cet algorithme représente une étape supplémentaire dans nos efforts en termes de réduction du spam et de promotion de contenus de qualité. Nous ne pouvons pas vous révéler d’indices précis quant à cet algorithme, car nous souhaitons éviter que certaines personnes trouvent un moyen de manipuler nos résultats de recherche et dégradent ainsi l’expérience utilisateur Google. Toutefois, le conseil que nous pouvons donner aux webmasters est de privilégier la création de sites de haute qualité qui répondent aux attentes des internautes, et d’adopter des techniques de SEO « White hat » au lieu de mettre en œuvre des tactiques de spam agressives.

En clair, nous parlons des sites qui pratiquent le webspam. Vous trouverez ci-dessous un exemple de site surchargé de mots clés qui sera concerné par cette modification :

 


Bien entendu, la plupart des sites concernés ne sont pas si faciles à détecter. Voici un exemple de site avec des liens suspects qui sera également concerné par la modification. Si vous lisez le texte à haute voix, vous remarquerez que les liens sortants n’ont aucun rapport avec le contenu. En réalité, le texte de la page est méconnaissable :

 

Sans une analyse approfondie ou l’expertise d’un spécialiste, il est possible que les sites affectés par cette modification n’apparaissent pas clairement comme étant du spam. Toutefois, ils tous ont un point commun : ils utilisent des technique de spam pour manipuler le classement des résultats de recherche.

La modification sera appliquée simultanément à l’ensemble des langues. Pour information, la première modification de notre algorithme, appelée « Panda », a eu une incidence significative sur environ 12 % des requêtes. Cet algorithme concerne environ 3,1 % des requêtes en anglais, et le changement sera visible par les utilisateurs utilisant régulièrement la recherche Google. La modification va affecter environ 3 % des requêtes en allemand, en arabe ou en chinois, mais l’impact sera plus prononcé pour les langues plus largement concernées par le spam. Par exemple, 5 % des requêtes en polonais seront affectées.

Nous voulons que les personnes réalisant une optimisation du référencement « White hat », voire celles qui ne procèdent à aucune forme d’optimisation, soient libres de se concentrer sur la création de sites uniques et attrayants. Comme toujours, nous apprécions vos commentaires sur la manière d’apporter des modifications à nos algorithmes de classement et de les améliorer en ce sens.

Matt Cutts, Distinguished Engineer

(source)

Dans la nuit, nous avons lancé un nouvel outil permettant de refuser les liens qui pointent vers votre site. Si vous avez reçu une notification selon laquelle votre site faisait l’objet d’une action manuelle pour cause de spam en raison de liens artificiels pointant vers celui-ci, cet outil peut vous aider à résoudre votre problème. Si vous n’avez reçu aucune notification de ce type, vous pouvez normalement ignorer cet outil.

Commençons par un court rappel. Les liens font partie des indicateurs les plus connus parmi ceux que nous utilisons pour classer les résultats de recherche. En étudiant les liens qui existent entre les pages, nous pouvons avoir une idée des pages les plus fiables et les plus importantes, qui sont aussi probablement les plus pertinentes pour les internautes. Il s’agit du principe de base du classement PageRank, qui est l’un des indicateurs (parmi plus de 200) que nous utilisons pour déterminer la position des sites dans les résultats de recherche. La notoriété du classement PageRank en fait également la cible des spammeurs. Sachez que nous luttons constamment contre le spam associé à des liens par l’intermédiaire d’algorithmes et d’actions manuelles.

Si votre site a déjà fait l’objet de spam associé à des liens, il est possible que vous ayez reçu, dans les Outils pour les webmasters, un message vous informant de l’existence de « liens artificiels » pointant vers votre site. Nous envoyons ce type de message lorsque nous détectons des liens payants, des échanges de liens ou d’autres systèmes de liens qui constituent une infraction à nos consignes aux webmasters. Si vous recevez ce message, nous vous recommandons de supprimer du Web le plus possible de liens de mauvaise qualité ou associés à du spam pointant vers votre site. Il s’agit de la meilleure approche, car elle permet de traiter la cause du problème. En supprimant directement les liens indésirables, vous évitez que Google et les autres moteurs de recherche ne prennent d’autres mesures à l’avenir. Vous protégez également l’image de votre site, car les internautes ne verront plus de liens associés à du spam pointant vers votre site et ne tireront plus de conclusions hâtives à propos de celui-ci ou de votre activité.

Si vous avez fait tout votre possible pour supprimer les liens posant problème, mais que certains d’entre eux sont récalcitrants, c’est le moment de consulter notre nouvelle page Refuser des liens. Une fois sur cette page, sélectionnez d’abord votre site.

Vous êtes alors invité à importer un fichier contenant les liens que vous souhaitez refuser :

 

Le format du fichier est très simple. Il vous suffit de créer un fichier au format texte brut avec une URL par ligne. Voici à quoi pourrait ressembler un fichier valide (extrait) :

# J’ai contacté le propriétaire de domainespam1.com le 01/07/2012 pour

# lui demander de supprimer des liens, mais je n’ai reçu aucune réponse

domain:domainespam1.com

# Le propriétaire de domainespam2.com a supprimé la plupart des liens à l’exception des suivants :

http://www.domainespam2.com/contenuA.html

http://www.domainespam2.com/contenuB.html

http://www.domainespam2.com/contenuC.html

Dans cet exemple, les lignes commençant par un signe dièse (#) sont des commentaires. Google les ignore. Le mot clé « domain: » indique que vous souhaitez refuser les liens provenant de l’ensemble des pages d’un même site (« domainespam1.com » dans ce cas). Vous pouvez également demander que des liens se trouvant sur des pages spécifiques soient refusés (trois pages sur domainespam2.com dans notre exemple). Pour le moment, nous n’acceptons qu’un fichier de ce type par site, et ce fichier est accessible à tous les propriétaires du site dans les Outils pour les webmasters. Si vous souhaitez mettre à jour le fichier, vous devez télécharger le fichier existant, le modifier et l’importer à nouveau. La taille du fichier ne doit pas dépasser 2 Mo.

Pour identifier les liens indésirables, nous vous conseillons de commencer par utiliser la fonctionnalité Liens vers votre site des Outils pour les webmasters. Sur la page d’accueil, sélectionnez le site de votre choix, accédez à Trafic > Liens vers votre site > Qui référence le plus votre site par le biais de liens > Plus, puis cliquez sur l’un des boutons de téléchargement. Ce fichier répertorie les pages contenant des liens pointant vers votre site. Si vous cliquez sur « Télécharger les derniers liens », vous verrez également les dates. Cette fonctionnalité peut constituer un bon point de départ pour commencer vos recherches. Toutefois, veillez à ne pas importer l’ensemble des liens pointant vers votre site, car vous refuseriez tous les liens entrants, ce qui n’est pas recommandé !

Pour en savoir plus sur cette fonctionnalité, consultez notre Centre d’aide. N’hésitez pas à poser des questions ou à laisser des commentaires sur le forum.

Outil pour Refuser des liens

Questions – Réponses

Nous vous rappelons que cet outil est destiné aux webmasters de niveau avancé. Nous vous recommandons de ne l’utiliser que si vous êtes certain de vouloir refuser certains liens pointant vers votre site, et si vous savez exactement ce que vous faites.

Q : La plupart des propriétaires de sites ont-ils besoin d’utiliser cet outil ?
R : Non. Cet outil n’est absolument pas utile pour la majeure partie des sites. Si vous n’êtes pas certain d’en comprendre l’utilité ou d’en avoir besoin, il est préférable que vous ne l’utilisiez pas.

Q : Que se passe-t-il si je refuse des liens ? Seront-ils ignorés définitivement par Google ?
R : Cet outil permet d’indiquer à Google quels sont les liens que vous souhaitez refuser. Ils seront généralement ignorés par Google. À l’instar de rel= »canonical », il s’agit plus d’une suggestion que d’une directive. Nous nous réservons le droit de nous fier à notre propre jugement dans les cas marginaux, par exemple. Toutefois, cette indication est généralement utilisée lors de l’évaluation des liens.

Q : Combien de temps après l’importation d’un fichier les liens sont-ils ignorés ?
R : Nous devons explorer à nouveau les URL que vous souhaitez refuser et les réindexer pour que les refus soient pris en compte. Ces opérations peuvent prendre plusieurs semaines.

Q : Puis-je utiliser cet outil si je m’inquiète des techniques de référencement négatif ?
R : L’objectif principal de cet outil est de vous aider à faire le tri si vous avez fait appel à un SEO incompétent ou si vous avez fait des erreurs dans la construction de vos propres liens. Si vous avez connaissance de constructions de lien incorrectes faites en votre nom (des posts ou des liens payants qui influencent le classement PageRank, par exemple), nous vous recommandons en premier lieu de contacter les sites liés au vôtre afin de faire disparaître ces liens du Web. Ce faisant, vous protégez l’image de votre site, car les internautes n’y trouveront plus de liens associés à du spam et ne tireront plus de conclusions hâtives au sujet de votre site ou de votre activité. Si malgré tous vos efforts, vous ne réussissez pas à obtenir la suppression de certains liens entrants, c’est le moment ou jamais d’utiliser l’outil « Refuser des liens ».

En général, nous faisons notre possible pour éviter que d’autres webmasters puissent nuire à votre classement. Toutefois, si vous pensez que certains liens entrants peuvent ternir la réputation de votre site, vous pouvez utiliser l’outil « Refuser des liens » pour indiquer à Google que ceux-ci ne doivent pas être pris en compte. Nous vous rappelons que nous créons nos algorithmes dans un souci de prévention du référencement négatif. Ainsi, la plupart des webmasters n’ont absolument aucune inquiétude à avoir à ce sujet.

Q : Je n’ai pas créé la plupart des liens que je vois s’afficher. Est-ce à moi de les supprimer ?
R : Normalement, non. Nous attribuons souvent une pondération appropriée aux liens. En règle générale, vous n’avez donc pas besoin de nous donner d’informations supplémentaires les concernant. Cet outil peut être utilisé dans la situation suivante : vous avez construit des liens qui ne respectent pas nos consignes relatives à la qualité et vous avez reçu un avertissement de Google au sujet de liens artificiels. Malgré tous vos efforts, vous ne parvenez toujours pas à faire supprimer certains de ces liens.

Q : J’ai importé des liens corrects. Comment puis-je annuler l’importation de ces liens ?
R : Pour modifier les liens que vous souhaitez refuser, téléchargez le fichier actuel comportant les liens refusés, modifiez-le afin de n’inclure que les liens de votre choix, puis importez le fichier à nouveau. Vous allez devoir patienter avant que le nouveau fichier ne se propage via notre système d’exploration et d’indexation, car le processus peut prendre quelques semaines.

Q : Dois-je créer un fichier de liens en guise de mesure préventive, même si je n’ai pas reçu d’avertissement relatif à des liens artificiels renvoyant vers mon site ?
R : Si votre site a été affecté par la mise à jour de l’algorithme Penguin parce que vous aviez fait appel à des liens de mauvaise qualité ou associés à du spam, nous vous conseillons d’examiner les liens entrants de votre site et d’ignorer les liens créés par des systèmes de liens qui ne respectent pas les consignes de Google.

Q : Si j’importe un fichier, ai-je encore besoin de faire une demande de réexamen ?
R : Oui, si vous recevez une alerte vous informant que votre site fait l’objet d’une action manuelle. Le but de l’outil « Refuser des liens » est d’indiquer à Google quels sont les liens que vous souhaitez voir ignorés. Si vous recevez un message concernant une action manuelle sur votre site, vous devez nettoyer ce dernier autant que possible, ce qui implique la suppression de tout lien associé à du spam que vous avez créé sur le Web. Une fois ce nettoyage effectué, vous pouvez utiliser l’outil « Refuser des liens » afin d’indiquer à Google quels sont ceux dont vous n’avez pas pu vous débarrasser. Un délai d’attente est nécessaire avant que les liens refusés soient pris en compte par notre système. Enfin, envoyez une demande de réexamen afin que l’équipe chargée du traitement manuel du spam sur le Web puisse vérifier si votre site respecte les consignes relatives à la qualité de Google. Si tel est le cas, l’action manuelle correspondante sera supprimée de votre site.

Q : Dois-je refuser les liens exemple.com et exemple.co.uk s’ils correspondent à la même entreprise ?
R : Oui. Si vous voulez refuser les liens provenant de plusieurs domaines, vous devez ajouter une entrée pour chaque domaine.

Q : Qu’en est-il du site www.exemple.com par rapport à exemple.com (sans le « www ») ?
R : D’un point de vue technique, ces URL sont différentes. La fonctionnalité « Refuser des liens » est très précise. Si le contenu que vous souhaitez ignorer se retrouve sur plusieurs URL d’un site, vous devez refuser chaque URL comprenant le lien à exclure. Vous pouvez bien entendu ignorer l’intégralité d’un domaine.

Q : Puis-je refuser quelquechose.exemple.com afin de n’ignorer que les liens provenant de ce sous-domaine ?
R : Généralement, oui. Pour la majorité des hébergeurs gratuits les plus connus (par exemple, wordpress.com, blogspot.com, tumblr.com et bien d’autres encore), le fait de refuser « domain:quelquechose.exemple.com » entraîne l’exclusion de liens ne provenant que de ce domaine. S’il s’agit d’un nouvel hébergeur gratuit ou d’un hébergeur peu connu, il se peut que nous interprétions ceci comme une demande d’exclusion de tous les liens de l’ensemble du domaine. Toutefois, si vous indiquez un sous-domaine, nous ignorerons les liens ne provenant que de ce sous-domaine la plupart du temps.

Ecrit par Jonathan Simon, Webmaster Trends Analyst

(source)

Lancement du Petit guide Google d’optimisation pour les moteurs de recherche

Nous connaissons tous quelqu’un qui se lance dans la création d’un blog sur blogger pour la première fois, ou qui vient de finir sa première installation WordPress. Ou bien des webmasters déjà un peu expérimentés qui commencent à s’intéresser à la recherche organique. Nous avons donc créé un Petit guide Google d’optimisation en pensant précisément à ces personnes : une liste de conseils basiques à suivre pour que Google et les autres moteurs de recherche puissent mieux comprendre le contenu d’un site et puissent ainsi le rendre plus visible. N’hésitez pas à lire le document, à l’imprimer, le copier et le partager.

Nous espérons qu’il permettra à de nombreuses personnes de faire leurs premiers pas dans le monde de l’optimisation de sites. Ensuite, lorsque ces personnes seront montées en compétences dans ce domaine, de nombreuses ressources plus avancées sont à leur disposition, notamment le Guide Google pour les débutants en SEO.

Mise à jour : nouvelle adresse du guide en version Web.

Comme toujours, tous les webmasters, débutants comme confirmés, sont invités à aller poser leurs questions sur le Forum Google d’aide pour les Webmasters.

Ecrit par Kaspar Szymanski, Search Quality Strategist, Dublin

(source)

Fin de citation

J’espère que ces archives vous seront aussi utiles qu’à moi dans le cadre de la formation en référencement naturel (SEO), dans le respect des guidelines de Google bien sûr 🙂

À venir (et bookmarker) :