Facbook viewat  Flickr
Accueil du site > Actualités > Google panda : entre promesses et craintes

Référencement / SEO

Google panda : entre promesses et craintes

Google

1 vote

Publié le vendredi 25 mars 2011

Un petit peu de veille sur le déploiement futur de google panda, qui va révolutionner l’indexation de google.

  • La fin du white hat cloacking (contenu full flash) :

Lorsque des clients ont un délire de site Full Flash (et oui, il y en a), une méthode de référencement consiste à reproduire l’intégralité du site en HTML. Il n’y à la aucune volonté de tromperie, le but est juste de fournir à Google un langage qu’il sait lire.

C’est fini, google va bannir les sites qui ne propose pas de contenu autres que full flash ( carto flash, expo full flash, ....). seule solution désindexer les pages du site qui propose ce contenu avec la balise (No index) ou le fichier robots.txt (bien que google n’aime pas les fichiers robots.txt trops longs). Le risque étant d’empêcher le crawler de revenir sur le site.

  • -# les mots clés dans le domaine :

le nom de domaine du site, qui constituait jusqu’ici un des critères de positionnement de morts clés très fort ne le saura plus. si les mots clés du domaine n’ont aucun rapport avec le contenu, google banni le site.

  • La lutte contre les fermes de contenus :

Qu’est ce qu’une ferme à contenu : (voilà la définition proposée par Amit Singhal et Matt Cutts les bloggeurs officiels de google ) :

il s’agit de site composés des caractéristiques suivantes :

    • Sur-optimisation des mots-clés (expressions-clés) notamment dans la balise title, le H1, très optimisées pour une expression donnée précise.
    • mise en page non adaptée à la lecture en ligne, à la compréhension : on peut penser que si un rédacteur ou un journaliste cherche à intéresser son lecteur, il va prendre soin d’organiser l’info de manière lisible.
    • Réseau fermé de liens présentant peu d’intérêt pour l’internaute
    • éventuellement pas de discussions générées ( va falloir ouvrir ses articles aux commentaires apparemment, google fait confiance à l’internaute pour juger de la pertinence d’un site )
    • l’absence de ligne éditoriale : un site Internet qui publie de gros volumes de contenus sans consistance éditoriale n’apporte pas de point de vue original (au sens de "unique") et donc peu de valeur au lecteur. ( quid des bases de données, qui forcément n’ont pas de ligne éditoriales)
    • Du contenu sans valeur ajoutée iconographique (les photos, tout au plus décoratives)
    • Du contenu sans valeur ajoutée analytique (pas de réflexion innovante)
    • Du contenu à faible degré d’engagement (peu d’empathie, peu de débat, peu de personnalité)
    • Aucun lien sortant intégré dans le contenu éditorial ( apparemment il s’agît ici des sites qui ne cite pas leurs sources ) —> il s’agît donc de liens vers un site tier.
    • Faible qualité éditoriale ( article court, sans chapeau, sans norme rédactionnelle telles que les paragraphes, ...)
    • Pas de nom d’auteur ( ? wikipédia n’en a jamais, seront ils pour autant pénalisé ? )
    • Très nombreux articles sur le même sujet, avec seulement quelques petites différences entre 2 pages
    • Très nombreux liens internes vers d’autres articles, avec plusieurs erreurs de pertinence (liens hors sujet ou ne correspondant pas exactement à la page de destination)
    • Très faible engagement des internautes avec les contenus :
      • rares liens profonds ou bien issus de sites à très faible notoriété
      • rares partages sur les réseaux sociaux (Twitter, Facebook, etc.) depuis des profils à bonne notoriété,
      • forte proportion d’internautes retournant sur la page de résultats Google très peu de temps après avoir consulté la page (pogo sticking, à ne pas confondre avec la notion de taux de rebond)
      • faible proportion d’internautes mettant cette page en favoris / bookmarks
  • les contenus de mauvaises qualité : Google peut mesurer la lisibilité des textes, notamment sur base de l’indice Gunning Fog   ou Flesh qui prend en compte les variables suivantes :
    • Proportion des mots rares dans le texte
    • Proportion des noms communs inconnus des dictionnaires dans le texte
    • Longueur moyenne de phrase
    • Proportion de mots appartenant au « Dictionnaire fondamental » de G. Gougenheim (3 500 mots de base de la langue française)
    • Proportion de conjonctions de coordination
    • Proportion d’appositions
    • Proportion de propositions participiales
    • Complexité de la construction de la phrase (sujets inversés, proportion de subordonnées, verbes à la forme passive, etc.)
    • Proportion des noms abstraits par rapport aux noms concrets, humains ou animaux
    • Proportion de mots polysémiques par rapport aux mots monosémiques

Répondre à cet article

Plan du site | Contact | Suivre la vie du site RSS 2.0