Éviter le duplicata des fiches auteur dans HubSpot

Pour le moment côté HubSpot: 

D'un point de vue SEO, les pages auteurs sont identifiées comme des duplicatas en raison de l'infrastructure d'exploration de HubSpot ("crawling infrastructure"), qui identifie la même balise de titre pour des URLs différentes, et les identifie donc comme duplicatas. Les moteurs de recherches comme Google, eux, vont être capables d'identifier que les pages appartiennent au même type de contenu de listing, même avec des URLS différentes, et ne vont donc pas indexer deux fois le contenu.

Nous pouvons résoudre ce problème : 

  • Si le blog n'est pas encore créé

Les pages  auteurs ne sont pas porteuses en SEO, vous pouvez demander à ne pas les indexer via le robots.txt sur Hubspot en ajoutant Disallow:/author/

Mais ça ne marche pas rétroactivement.

 

Paramètres > Outils > Site web > Pages 

Ensuite allez dans l'onglet SEO et robots d'indexation, tout en bas dans la partie Robots.txt ajoutez les pages que vous souhaitez désindexer : 

De même pour tags : 

Disallow:/tag/

  • Si le blog est créé et les pages sont déjà indexées

Si les pages sont déjà indexées, vous pouvez ajouter un code dans le head du blog listing concerné.

Paramètres > Outils > Site web > Blog

Sélectionnez le blog sur lequel vous souhaitez exclure le crawl Google des pages auteur. 

Ensuite dans l'onglet Modèles > En-tête HTML des pages de listing de blog

Copier-coller : 

De même pour les tags :