[Resolu]Sitemap et robots.txt et les pages privées

Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
#1
Citation :#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~
#~ Version du CMS: 1.9.3
#~ Nom de l'hébergeur : OVH
#~ Informations Système :
#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~

Bonjour à tous,

Je test l'utilisation du module SiteMapMadeSimple, qui fonctionne bien et me génère le fichier sitemap.xml.

Sur le site que je construit, il y a des pages privées et je ne souhaite pas que ces pages soient indexées par les moteurs de recherche. Là j'ai besoin de conseils :

1) faut-il que les pages privées apparaissent dans le fichier sitemap.xml alors que l'on en interdit l'accès dans le fichier robots.txt ?

2) s'il faut exclure les pages privées du fichier sitemap.xml, comment le faire de façon simple et dynamique ? en ajoutant du code dans le tamplatepar défaut ?

3) Pour interdire l'accès aux pages privées pour les robots, je sais, parce que je l'ai lu dans le forum, qu'il faut spécifier toutes les pages à exclure dans le fichiers robots.txt; faut-il ajouter la meta donnée noindex sur chaque page privée en plus du fichier robots.txt ou choisir l'une ou l'autre solution ?

Merci d'avance pour votre aide

Cordialement

Alain
#1
Citation :#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~
#~ Version du CMS: 1.9.3
#~ Nom de l'hébergeur : OVH
#~ Informations Système :
#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~

Bonjour à tous,

Je test l'utilisation du module SiteMapMadeSimple, qui fonctionne bien et me génère le fichier sitemap.xml.

Sur le site que je construit, il y a des pages privées et je ne souhaite pas que ces pages soient indexées par les moteurs de recherche. Là j'ai besoin de conseils :

1) faut-il que les pages privées apparaissent dans le fichier sitemap.xml alors que l'on en interdit l'accès dans le fichier robots.txt ?

2) s'il faut exclure les pages privées du fichier sitemap.xml, comment le faire de façon simple et dynamique ? en ajoutant du code dans le tamplatepar défaut ?

3) Pour interdire l'accès aux pages privées pour les robots, je sais, parce que je l'ai lu dans le forum, qu'il faut spécifier toutes les pages à exclure dans le fichiers robots.txt; faut-il ajouter la meta donnée noindex sur chaque page privée en plus du fichier robots.txt ou choisir l'une ou l'autre solution ?

Merci d'avance pour votre aide

Cordialement

Alain


Messages dans ce sujet

Atteindre :


Utilisateur(s) parcourant ce sujet : 1 visiteur(s)