[Resolu]Sitemap et robots.txt et les pages privées

Note de ce sujet :
  • Moyenne : 0 (0 vote(s))
  • 1
  • 2
  • 3
  • 4
  • 5
#1
Citation :#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~
#~ Version du CMS: 1.9.3
#~ Nom de l'hébergeur : OVH
#~ Informations Système :
#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~

Bonjour à tous,

Je test l'utilisation du module SiteMapMadeSimple, qui fonctionne bien et me génère le fichier sitemap.xml.

Sur le site que je construit, il y a des pages privées et je ne souhaite pas que ces pages soient indexées par les moteurs de recherche. Là j'ai besoin de conseils :

1) faut-il que les pages privées apparaissent dans le fichier sitemap.xml alors que l'on en interdit l'accès dans le fichier robots.txt ?

2) s'il faut exclure les pages privées du fichier sitemap.xml, comment le faire de façon simple et dynamique ? en ajoutant du code dans le tamplatepar défaut ?

3) Pour interdire l'accès aux pages privées pour les robots, je sais, parce que je l'ai lu dans le forum, qu'il faut spécifier toutes les pages à exclure dans le fichiers robots.txt; faut-il ajouter la meta donnée noindex sur chaque page privée en plus du fichier robots.txt ou choisir l'une ou l'autre solution ?

Merci d'avance pour votre aide

Cordialement

Alain
#1
Citation :#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~
#~ Version du CMS: 1.9.3
#~ Nom de l'hébergeur : OVH
#~ Informations Système :
#~~~~~ NE PAS SUPPRIMER CE BLOC ~~~~~

Bonjour à tous,

Je test l'utilisation du module SiteMapMadeSimple, qui fonctionne bien et me génère le fichier sitemap.xml.

Sur le site que je construit, il y a des pages privées et je ne souhaite pas que ces pages soient indexées par les moteurs de recherche. Là j'ai besoin de conseils :

1) faut-il que les pages privées apparaissent dans le fichier sitemap.xml alors que l'on en interdit l'accès dans le fichier robots.txt ?

2) s'il faut exclure les pages privées du fichier sitemap.xml, comment le faire de façon simple et dynamique ? en ajoutant du code dans le tamplatepar défaut ?

3) Pour interdire l'accès aux pages privées pour les robots, je sais, parce que je l'ai lu dans le forum, qu'il faut spécifier toutes les pages à exclure dans le fichiers robots.txt; faut-il ajouter la meta donnée noindex sur chaque page privée en plus du fichier robots.txt ou choisir l'une ou l'autre solution ?

Merci d'avance pour votre aide

Cordialement

Alain
#2
bonjour, pour le fichier robots.txt :
# robots.txt
User-agent: *
Disallow: /le_dossier_a_ne_pas_indexer

pour le xitemapXML, je connais pas le module que tu utilise mais avec SEOTools c'est possible.
#2
bonjour, pour le fichier robots.txt :
# robots.txt
User-agent: *
Disallow: /le_dossier_a_ne_pas_indexer

pour le xitemapXML, je connais pas le module que tu utilise mais avec SEOTools c'est possible.
#3
1° Bien sûr que non.
2° Dans les préférences du module, il y a :Afficher les pages cachées dans le plan du site ? :
Et pour les cacher, il faut désactiver dans les options des pages concernées :
"afficher dans le menu",
"Effectuer la recherche dans cette page",
"Cachable" (ça je n'en suis pas sûr, mais bon...).
3° <meta name="robots" content="noindex, nofollow" />.

Je te conseille de t'abonner (c'est gratuit) aux webmaster tools de Google qui te permettront de mieux gérer ton site et de supprimer une page de l'indexation (entre autres).
#3
1° Bien sûr que non.
2° Dans les préférences du module, il y a :Afficher les pages cachées dans le plan du site ? :
Et pour les cacher, il faut désactiver dans les options des pages concernées :
"afficher dans le menu",
"Effectuer la recherche dans cette page",
"Cachable" (ça je n'en suis pas sûr, mais bon...).
3° <meta name="robots" content="noindex, nofollow" />.

Je te conseille de t'abonner (c'est gratuit) aux webmaster tools de Google qui te permettront de mieux gérer ton site et de supprimer une page de l'indexation (entre autres).
#4
Bonjour,

Merci à tous les deux pour vos réponses. Je prends bonne note de tous cela.

@Jean le chauve : je me suis abonné aux webmaster tools de google, reste plus qu'à bosser....

Merci à tous

je marque résolu dans mon premier poste

Amicalement

Alain
#4
Bonjour,

Merci à tous les deux pour vos réponses. Je prends bonne note de tous cela.

@Jean le chauve : je me suis abonné aux webmaster tools de google, reste plus qu'à bosser....

Merci à tous

je marque résolu dans mon premier poste

Amicalement

Alain


Atteindre :


Utilisateur(s) parcourant ce sujet : 1 visiteur(s)