Tutoriels WordPress de confiance, quand vous en avez le plus besoin.
Guide du débutant pour WordPress
WPB Cup
25 millions+
Sites web utilisant nos plugins
16+
Années d'expérience WordPress
3000+
Tutoriels WordPress par des experts

Comment optimiser votre fichier Robots.txt WordPress pour le SEO

C'est un sentiment de désespoir lorsque vous réalisez qu'un petit fichier texte négligé pourrait saboter silencieusement le référencement de votre site Web. De nombreux propriétaires de sites ne réalisent pas qu'une simple erreur dans leur fichier robots.txt peut empêcher Google de trouver leur contenu le plus important.

Après avoir audité des milliers de sites WordPress, nous avons vu cela se produire plus de fois que nous ne pouvons le compter. La bonne nouvelle est que le corriger est plus facile que vous ne le pensez.

Dans ce guide, nous vous présenterons les étapes exactes et éprouvées que nous utilisons pour optimiser un fichier robots.txt WordPress. Vous apprendrez comment le faire correctement et vous assurer que les moteurs de recherche explorent votre site efficacement.

Optimisation du fichier robots.txt pour un meilleur référencement

Vous vous sentez dépassé ? Voici un aperçu rapide de tout ce que nous aborderons dans ce guide. N'hésitez pas à passer à la section qui vous intéresse le plus.

  1. Qu'est-ce qu'un fichier robots.txt ?
  2. Avez-vous besoin d'un fichier robots.txt pour votre site WordPress ?
  3. À quoi ressemble un fichier robots.txt idéal ?
  4. Comment créer un fichier Robots.txt dans WordPress
  5. Comment tester votre fichier Robots.txt
  6. Réflexions finales
  7. Questions fréquemment posées sur robots.txt WordPress
  8. Ressources supplémentaires sur l'utilisation de robots.txt dans WordPress

Qu'est-ce qu'un fichier robots.txt ?

Robots.txt est un fichier texte que les propriétaires de sites Web peuvent créer pour indiquer aux robots des moteurs de recherche comment explorer et indexer les pages de leurs sites.

Il est généralement stocké dans le répertoire racine (également appelé dossier principal) de votre site Web. Le format de base d'un fichier robots.txt ressemble à ceci :

User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
 
User-agent: [user-agent name]
Allow: [URL string to be crawled]
 
Sitemap: [URL of your XML Sitemap]

Vous pouvez avoir plusieurs lignes d'instructions pour autoriser ou interdire des URL spécifiques et ajouter plusieurs sitemaps. Si vous n'interdisez pas une URL, les robots des moteurs de recherche supposent qu'ils sont autorisés à l'explorer.

Voici à quoi peut ressembler un exemple de fichier robots.txt :

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/

Sitemap: https://example.com/sitemap_index.xml

Dans l'exemple de robots.txt ci-dessus, nous avons autorisé les moteurs de recherche à explorer et à indexer les fichiers de notre dossier de téléchargements WordPress.

Après cela, nous avons interdit aux robots d'exploration d'explorer et d'indexer les plugins et les dossiers d'administration de WordPress.

Enfin, nous avons fourni l'URL de notre sitemap XML.

Avez-vous besoin d'un fichier robots.txt pour votre site WordPress ?

Bien que votre site puisse fonctionner sans fichier robots.txt, nous avons constamment constaté que les sites dotés de fichiers robots.txt optimisés obtiennent de meilleurs résultats dans les moteurs de recherche.

Grâce à notre travail avec des clients de divers secteurs, nous avons constaté comment une gestion adéquate du budget d'exploration via robots.txt peut conduire à une indexation plus rapide du contenu important et à de meilleures performances SEO globales.

Cela n'aura pas beaucoup d'impact lorsque vous démarrez un blog et que vous n'avez pas beaucoup de contenu.

Cependant, à mesure que votre site Web grandit et que vous ajoutez du contenu, vous voudrez probablement mieux contrôler la manière dont votre site Web est exploré et indexé.

Voici pourquoi.

Les moteurs de recherche allouent ce que Google appelle un « budget d'exploration » à chaque site Web. C'est le nombre de pages qu'ils exploreront dans un délai donné.

Lors de nos tests sur des milliers de sites WordPress, nous avons constaté que les sites plus importants bénéficient particulièrement de l'optimisation de ce budget grâce à une configuration stratégique de robots.txt.

Par exemple, l'un de nos clients d'entreprise a constaté une amélioration de 40 % de l'efficacité de l'exploration après avoir mis en œuvre les optimisations de robots.txt que nous recommandons.

Vous pouvez interdire aux robots de recherche de tenter d'explorer des pages inutiles comme vos pages d'administration WordPress, les fichiers de plugins et le dossier des thèmes.

En interdisant les pages inutiles, vous économisez votre quota d'exploration. Cela aide les moteurs de recherche à explorer encore plus de pages sur votre site et à les indexer le plus rapidement possible.

Une autre bonne raison d'utiliser un fichier robots.txt est lorsque vous souhaitez empêcher les moteurs de recherche d'indexer un article ou une page sur votre site Web.

Cependant, il est important de savoir que robots.txt n'est pas le meilleur moyen de masquer du contenu. Une page interdite peut toujours apparaître dans les résultats de recherche si elle est liée depuis d'autres sites Web.

Si vous souhaitez empêcher de manière fiable qu'une page n'apparaisse sur Google, vous devriez plutôt utiliser une balise méta 'noindex'. Cela indique aux moteurs de recherche de ne pas ajouter la page à leur index du tout.

À quoi ressemble un fichier robots.txt idéal ?

De nombreux blogs populaires utilisent un fichier robots.txt très simple. Leur contenu peut varier en fonction des besoins du site spécifique :

User-agent: *
Disallow:

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

Ce fichier robots.txt autorise tous les robots à indexer tout le contenu et leur fournit un lien vers les sitemaps XML du site web.

Pour les sites WordPress, nous recommandons les règles suivantes dans le fichier robots.txt :

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

Cela indique aux robots d'exploration d'indexer toutes vos images et fichiers téléchargés WordPress en utilisant spécifiquement la directive Allow, qui est une commande utile que les moteurs de recherche comme Google comprennent.

Il interdit ensuite aux robots d'exploration d'indexer la zone d'administration de WordPress, le fichier readme.html par défaut (qui peut révéler votre version de WordPress) et les répertoires courants pour les liens d'affiliation masqués comme /refer/.

En ajoutant des sitemaps au fichier robots.txt, vous facilitez la tâche des robots de Google pour trouver toutes les pages de votre site.

Maintenant que vous savez à quoi ressemble un fichier robots.txt idéal, examinons comment vous pouvez créer un fichier robots.txt dans WordPress.

Comment créer un fichier Robots.txt dans WordPress

Il existe deux méthodes pour créer un fichier robots.txt dans WordPress. Vous pouvez choisir celle qui vous convient le mieux.

Méthode 1 : Modifier le fichier Robots.txt avec All in One SEO

All in One SEO, également connu sous le nom d'AIOSEO, est le meilleur plugin SEO WordPress du marché, utilisé par plus de 3 millions de sites Web. Il est facile à utiliser et comprend un générateur de fichier robots.txt.

Pour en savoir plus, consultez notre test détaillé d'AIOSEO.

Si vous n'avez pas encore installé le plugin AIOSEO, vous pouvez consulter notre guide étape par étape sur comment installer un plugin WordPress.

Remarque : Une version gratuite d'AIOSEO est également disponible et possède cette fonctionnalité.

Une fois le plugin installé et activé, vous pouvez l'utiliser pour créer et modifier votre fichier robots.txt directement depuis votre espace d'administration WordPress.

Allez simplement dans Tout-en-un SEO » Outils pour modifier votre fichier robots.txt.

Éditeur de fichier robots.txt dans All in One SEO

Tout d'abord, vous devrez activer l'option de modification en cliquant sur le bouton « Activer le fichier robots.txt personnalisé » pour qu'il devienne bleu.

Avec ce bouton activé, vous pouvez créer un fichier robots.txt personnalisé dans WordPress.

Activer le fichier robots.txt personnalisé

Tout-en-un SEO affichera votre fichier robots.txt existant dans la section « Aperçu du fichier robots.txt » en bas de votre écran.

Cette version affichera les règles par défaut qui ont été ajoutées par WordPress.

Aperçu du fichier robots.txt dans All in One SEO

Ces règles par défaut indiquent aux moteurs de recherche de ne pas explorer vos fichiers WordPress principaux, autorisent les robots à indexer tout le contenu et leur fournissent un lien vers les sitemaps XML de votre site.

Vous pouvez maintenant ajouter vos propres règles personnalisées pour améliorer votre fichier robots.txt pour le SEO.

Pour ajouter une règle, entrez un agent utilisateur dans le champ « Agent utilisateur ». L'utilisation d'un * appliquera la règle à tous les agents utilisateurs.

Ensuite, sélectionnez si vous souhaitez « Autoriser » ou « Interdire » aux moteurs de recherche d'explorer.

Ensuite, entrez le nom du fichier ou le chemin du répertoire dans le champ « Chemin du répertoire ».

Ajouter des règles au fichier robots

La règle sera automatiquement appliquée à votre fichier robots.txt. Pour ajouter une autre règle, cliquez simplement sur le bouton « Ajouter une règle ».

Nous vous recommandons d'ajouter des règles jusqu'à ce que vous créiez le format idéal de fichier robots.txt que nous avons partagé ci-dessus.

Vos règles personnalisées ressembleront à ceci.

Aperçu du fichier robots.txt personnalisé

Une fois que vous avez terminé, n'oubliez pas de cliquer sur le bouton « Enregistrer les modifications » pour sauvegarder vos changements.

Méthode 2 : Modifier le fichier Robots.txt à l'aide de WPCode

WPCode est un puissant plugin de snippets de code qui vous permet d'ajouter facilement et en toute sécurité du code personnalisé à votre site web.

Il comprend également une fonctionnalité pratique qui vous permet de modifier rapidement le fichier robots.txt.

Note : Il existe également un plugin gratuit WPCode, mais il n'inclut pas la fonctionnalité d'éditeur de fichiers.

La première chose à faire est d'installer le plugin WPCode. Pour des instructions étape par étape, consultez notre guide pour débutants sur comment installer un plugin WordPress.

Lors de l'activation, vous devez accéder à la page WPCode » Éditeur de fichiers. Une fois sur place, cliquez simplement sur l'onglet « robots.txt » pour modifier le fichier.

Éditeur robots.txt WPCode

Vous pouvez maintenant coller ou taper le contenu du fichier robots.txt.

Une fois que vous avez terminé, assurez-vous de cliquer sur le bouton « Enregistrer les modifications » en bas de la page pour stocker les paramètres.

Méthode 3 : Modification manuelle du fichier Robots.txt via FTP

Pour cette méthode, vous devrez utiliser un client FTP pour modifier le fichier robots.txt. Alternativement, vous pouvez utiliser le gestionnaire de fichiers fourni par votre hébergement WordPress.

Astuce de pro : Avant de modifier, nous vous recommandons de télécharger une copie de sauvegarde de votre fichier robots.txt d'origine (s'il existe) sur votre ordinateur. Ainsi, vous pourrez facilement le réimporter si quelque chose tourne mal.

Connectez-vous simplement aux fichiers de votre site Web WordPress à l'aide d'un client FTP.

Une fois à l'intérieur, vous pourrez voir le fichier robots.txt dans le dossier racine de votre site Web.

Modifier le fichier robots via FTP

Si vous n'en voyez pas, il est probable que vous n'ayez pas de fichier robots.txt.

Dans ce cas, vous pouvez simplement continuer et en créer un.

Créer un nouveau fichier robots

Robots.txt est un fichier texte brut, ce qui signifie que vous pouvez le télécharger sur votre ordinateur et le modifier à l'aide de n'importe quel éditeur de texte brut comme le Bloc-notes ou TextEdit.

Après avoir enregistré vos modifications, vous pouvez téléverser le fichier robots.txt dans le dossier racine de votre site Web.

Comment tester votre fichier Robots.txt

Après avoir créé ou modifié votre fichier robots.txt, il est fortement recommandé de vérifier s'il contient des erreurs. Une petite faute de frappe pourrait accidentellement bloquer des pages importantes pour les moteurs de recherche, donc cette étape est très importante ! 👍

Bien que Google ait eu un outil de test dédié, ils ont maintenant intégré cette fonctionnalité dans les rapports principaux de Google Search Console.

Tout d'abord, assurez-vous que votre site est connecté à Google Search Console. Si vous ne l'avez pas encore fait, suivez simplement notre guide simple sur comment ajouter votre site WordPress à Google Search Console.

Une fois que vous êtes configuré, accédez à votre tableau de bord Google Search Console. Naviguez vers Paramètres dans le menu en bas à gauche.

Ensuite, trouvez la section « Exploration » et cliquez sur « Ouvrir le rapport » à côté de « robots.txt ».

Ouverture du rapport robots.txt dans les paramètres de la Google Search Console

Cliquez simplement sur la version actuelle du fichier dans la liste.

Ce rapport vous montrera la version la plus récente de votre fichier robots.txt que Google a trouvée. Il mettra en évidence toutes les erreurs de syntaxe ou les problèmes logiques qu'il a détectés.

Le rapport robots.txt de la Google Search Console montrant un fichier valide

Ne vous inquiétez pas si vous venez de mettre à jour votre fichier et que les modifications n’apparaissent pas immédiatement. Google vérifie automatiquement une nouvelle version de votre fichier robots.txt environ une fois par jour.

Vous pouvez revenir plus tard sur ce rapport pour confirmer que Google a bien pris en compte vos dernières modifications et que tout est en ordre.

Réflexions finales

L'objectif de l'optimisation de votre fichier robots.txt est d'empêcher les moteurs de recherche d'explorer les pages qui ne sont pas publiquement disponibles. Par exemple, les pages de votre dossier wp-plugins ou les pages de votre dossier d'administration WordPress.

Un mythe courant parmi les experts SEO est que le blocage des catégories, des tags et des pages d'archives WordPress améliorera le taux d'exploration et entraînera une indexation plus rapide et des classements plus élevés.

C’est faux. En fait, cette pratique est fortement déconseillée par Google et va à l’encontre de leurs directives de bonnes pratiques pour les aider à comprendre votre site.

Nous vous recommandons de suivre le format robots.txt ci-dessus pour créer un fichier robots.txt pour votre site Web.

Questions fréquemment posées sur robots.txt WordPress

Voici quelques-unes des questions les plus fréquemment posées concernant l’optimisation du fichier robots.txt dans WordPress.

1. Quel est le but principal d’un fichier robots.txt ?

Le but principal d’un fichier robots.txt est de gérer le budget d’exploration de votre site web. En indiquant aux moteurs de recherche quelles pages ignorer (comme les pages d’administration ou les fichiers de plugins), vous les aidez à dépenser leurs ressources pour explorer et indexer votre contenu le plus important plus efficacement.

2. Où se trouve le fichier robots.txt dans WordPress ?

Votre fichier robots.txt se trouve dans le répertoire racine de votre site web. Vous pouvez généralement le consulter en accédant à votredomaine.com/robots.txt dans votre navigateur web.

3. L’utilisation de robots.txt peut-elle améliorer la sécurité de mon site ?

Non, le fichier robots.txt n’est pas une mesure de sécurité. Le fichier est visible publiquement, il n’empêche donc personne d’accéder aux URL que vous listez. Il fournit simplement des directives aux robots d’exploration des moteurs de recherche bien élevés.

4. Dois-je bloquer les pages de catégories et d’étiquettes de WordPress dans robots.txt ?

Non, vous ne devriez pas bloquer les pages de catégories et d’étiquettes. Ces pages d’archives sont utiles pour le SEO car elles aident les moteurs de recherche à comprendre la structure de votre site et à découvrir votre contenu. Les bloquer peut avoir un impact négatif sur votre classement dans les moteurs de recherche.

Ressources supplémentaires sur l'utilisation de robots.txt dans WordPress

Maintenant que vous savez comment optimiser votre fichier robots.txt, vous aimerez peut-être consulter d'autres articles liés à l'utilisation de robots.txt dans WordPress.

Nous espérons que cet article vous a aidé à apprendre comment optimiser votre fichier robots.txt WordPress pour le SEO. Vous voudrez peut-être aussi consulter notre guide ultime du SEO WordPress et nos meilleurs choix pour les meilleurs outils SEO WordPress pour développer votre site web.

Si cet article vous a plu, abonnez-vous à notre chaîne YouTube pour des tutoriels vidéo WordPress. Vous pouvez également nous retrouver sur Twitter et Facebook.

Avis : Notre contenu est financé par nos lecteurs. Cela signifie que si vous cliquez sur certains de nos liens, nous pouvons percevoir une commission. Voir comment WPBeginner est financé, pourquoi c'est important et comment vous pouvez nous soutenir. Voici notre processus éditorial.

La boîte à outils WordPress ultime

Accédez GRATUITEMENT à notre boîte à outils - une collection de produits et de ressources liés à WordPress que tout professionnel devrait posséder !

Interactions des lecteurs

133 CommentsLeave a Reply

    • Pour un multisite, vous auriez besoin d'un fichier robots.txt dans le dossier racine de chaque site.

      Admin

  1. Mon site wordpress est nouveau et mon robot.txt par défaut est
    user-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    Je veux que Google explore et indexe mon contenu. Est-ce que ce robot.txt est correct ?

  2. Super article…

    J'étais confus depuis tant de jours à propos du fichier Robots.txt et des liens Disallow. J'ai copié les balises pour le fichier robots. J'espère que cela résoudra le problème de mon site

  3. Les fichiers dans les captures d'écran de votre dossier personnel se trouvent en fait dans le dossier public_html sous mon dossier personnel.

    Je n'avais pas de dossier /refer sous mon dossier public_html.

    Je n'avais pas de fichiers xml de publication ou de page nulle part sur mon compte WP.

    J'ai inclus une entrée dans le fichier robots.txt que j'ai créé pour interdire l'exploration de mon site sandbox. Je ne suis pas sûr que ce soit nécessaire puisque j'ai déjà sélectionné l'option dans WP indiquant aux robots de ne pas explorer mon site sandbox, mais je ne pense pas que cela nuise d'avoir l'entrée.

    • Some hosts do rename public_html to home which is why you see it there. You would want to ensure Yoast is active for the XML files to be available. The method in this article is an additional precaution to help with preventing crawling your site :)

      Admin

  4. User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php <– C'est mon code robot.txt mais je suis confus pourquoi mon /wp-admin est indexé ? Comment ne pas l'indexer ?

    • S'il a été indexé précédemment, vous devrez peut-être laisser le temps à la mémoire cache du moteur de recherche de se vider

      Admin

  5. Ce site web m'inspire vraiment à commencer un blog. Merci beaucoup à l'équipe. Ce site web, chaque article est riche en informations et explications. Quand j'ai un problème, je visite d'abord ce blog. Merci

  6. J'essaie d'optimiser les robots pour mon site web en utilisant Yoast. Cependant, les outils dans Yoast n'ont pas l'option « Éditeur de fichiers ». Il n'y a que deux options (i) Importer et exporter (ii) Éditeur en masse. Pouvez-vous s'il vous plaît me conseiller sur la façon de résoudre ce problème. Est-ce que je suis sur une édition gratuite de Yoast ?

    • La version gratuite de Yoast a toujours l'option, votre installation peut interdire la modification de fichiers auquel cas vous auriez probablement besoin d'utiliser la méthode FTP.

      Admin

  7. Je trouve cet article vraiment utile car je ne sais pas grand-chose sur le fonctionnement de robot.txt mais maintenant je le sais.

    S'il vous plaît, ce que je ne comprends pas, c'est comment trouver le meilleur format de robot.txt à utiliser sur mon site (je veux dire un qui fonctionne généralement) ?

    J'ai remarqué que de nombreux grands blogs que je consulte et qui se classent bien dans les moteurs de recherche utilisent différents formats de robot.txt...

    Je serais ravi de voir une réponse de votre part ou de quiconque peut aider.

    • Avoir un sitemap et autoriser les zones qui doivent être autorisées est la partie la plus importante. La partie interdire variera en fonction de chaque site. Nous avons partagé un exemple dans notre article de blog, et cela devrait convenir à la plupart des sites WordPress.

      Admin

    • Salut Emmanuel,

      Veuillez consulter la section concernant le fichier robots.txt idéal. Cela dépend de vos propres exigences. La plupart des blogueurs excluent les dossiers d'administration et de plugins WordPress du crawl.

      Admin

      • Merci beaucoup.

        maintenant je comprends. Je suppose que je vais commencer avec le format général pour l'instant.

  8. Article bien écrit, je recommande aux utilisateurs de faire un sitemap avant de créer et d'activer leur texte ROBOTS, cela aidera votre site à être exploré plus rapidement et indexé facilement.

    Jack

  9. Je voudrais empêcher les moteurs de recherche d'indexer mes archives lors de leur exploration.

  10. Je reçois continuellement le message d'erreur ci-dessous sur Google Webmaster. Je suis bloqué. Quelques points qui n'étaient pas clairs pour moi dans ce tutoriel sont : où trouver les fichiers racine de mon site, comment déterminer si j'ai déjà un fichier « robots.txt » et comment le modifier ?

    • Bonjour Cherisa,

      Le dossier racine de votre site est celui qui contient des dossiers comme wp-admin, wp-includes, wp-content, etc. Il contient également des fichiers comme wp-config.php, wp-cron.php, wp-blogheader.php, etc.

      Si vous ne voyez pas de fichier robots.txt dans ce dossier, alors vous n'en avez pas. Vous pouvez y aller et en créer un nouveau.

      Admin

      • Merci pour votre réponse. J'ai cherché partout et je n'arrive pas à trouver ces fichiers racines comme vous le décrivez. Y a-t-il un répertoire de chemin que je peux suivre pour accéder à ce dossier. Comme s'il se trouve sous Paramètres, etc. ?

  11. J'ai eu un trafic web décent sur mon site web. Il a soudainement chuté à zéro au mois de mai. Jusqu'à présent, je rencontre le problème. S'il vous plaît, aidez-moi à récupérer mon site web.

  12. Bonjour, merci pour cette information, mais j'ai une question.
    J'ai créé le fichier sitemap.xml et robots.txt, et il est bien exploré. Mais comment puis-je créer "Product-Sitemap.xml" ?
    Il y a toute la liste des produits dans le fichier sitemap.xml. Dois-je créer Product-sitemap.xml séparément ?

    et le soumettre à nouveau à Google ou Bing ?
    Pouvez-vous m'aider s'il vous plaît...
    Merci

  13. J'ai un problème avec le réglage du fichier robots.txt. Un seul robots.txt s'affiche pour tous les sites web. S'il vous plaît, aidez-moi à afficher un fichier robots.txt séparé pour tous les sites web. J'ai tous les fichiers robots.txt séparés pour chaque site web individuel. Mais un seul fichier robots.txt s'affiche dans le navigateur pour tous les sites web.

  14. Veuillez expliquer pourquoi vous avez inclus
    Disallow: /refer/
    dans l'exemple de Robots.txt pour débutants ? Je ne comprends pas les implications de cette ligne. Est-ce important pour un débutant ? Vous avez expliqué les deux autres lignes refusées.

    Merci.

  15. Comment puis-je mettre toutes les balises/mondomaine.Com en nofollow ? Dans robots.txt pour concentrer le jus de lien ? Merci.

  16. salut,, j'ai une erreur dans yoast seo concernant le plan du site.. une fois que je clique sur corriger,,, ça revient encore.. le html de mon site ne se charge pas correctement

  17. Je viens de consulter mon compte Google Webmaster Tools et en utilisant la Search Console, j'ai trouvé ce qui suit :
    Page partiellement chargée
    Toutes les ressources de la page n'ont pas pu être chargées. Cela peut affecter la façon dont Google voit et comprend votre page. Corrigez les problèmes de disponibilité pour toutes les ressources qui peuvent affecter la façon dont Google comprend votre page.

    C'est parce que toutes les feuilles de style CSS associées aux plugins sont interdites par le fichier robots.txt par défaut.

    Je comprends les bonnes raisons pour lesquelles je ne devrais pas simplement autoriser cela, mais quelle serait une alternative car je suspecterais que les algorithmes de Google pénalisent le site parce qu'ils ne les voient pas.

  18. Bonjour,

    Lorsque je recherche mon site sur Google, ce texte apparaît sous le lien : « Une description de ce résultat n'est pas disponible en raison du fichier robots.txt de ce site »

    Comment puis-je résoudre ce problème ?

    Cordialement

    • Salut Suren,

      Il semble que quelqu'un ait accidentellement modifié les paramètres de confidentialité de votre site. Allez dans Paramètres » Page Lecture et faites défiler jusqu'à la section « Visibilité pour les moteurs de recherche ». Assurez-vous que la case à côté de est décochée.

      Admin

  19. Bonjour

    Comme je l'ai vu dans l'outil pour les webmasters, j'ai un fichier robot.txt comme suit :

    User-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    Dites-moi si c'est correct ? Ou dois-je utiliser autre chose ?

  20. Je voudrais savoir s'il est judicieux de bloquer (interdire) « /wp-content/plugins/ » dans robots.tx ? Chaque fois que je supprime un plugin, une erreur 404 s'affiche sur certaines pages de ce plugin.

  21. J'ai adoré cette explication. En tant que débutant, j'étais très confus au sujet du fichier robot.txt et de ses utilisations. Mais maintenant, je sais quel est son but.

  22. dans certains fichiers robot.txt, index.php a été interdit. Pouvez-vous expliquer pourquoi ? est-ce une bonne pratique.

  23. Pouvez-vous me dire pourquoi cela se produit dans l'outil pour les webmasters :

    Réseau inaccessible : robots.txt inaccessibleNous n'avons pas pu explorer votre sitemap car nous avons trouvé un fichier robots.txt à la racine de votre site mais nous n'avons pas pu le télécharger. Veuillez vous assurer qu'il est accessible ou supprimez-le complètement.

    le fichier robots.txt existe mais toujours

  24. Mise à jour intéressante de l'équipe Yoast à ce sujet sur

    Citation : « Les anciennes bonnes pratiques consistant à avoir un robots.txt qui bloque l'accès à votre répertoire wp-includes et à votre répertoire de plugins ne sont plus valides. »

  25. Autoriser : /wp-content/uploads/

    Ne devrait-ce pas être ?
    Disallow: /wp-content/uploads/

    Parce que vous êtes conscient que Google indexera toutes vos pages de téléchargement en tant qu'URL publiques, n'est-ce pas ? Et ensuite, vous recevrez des erreurs pour la page elle-même. Y a-t-il quelque chose que je manque ici ?

    • Dans l'ensemble, ce sont les pages réelles que Google explore pour générer des cartes d'images, PAS les dossiers de téléchargement. Ensuite, vous auriez un problème avec toutes les petites tailles d'images et d'autres images destinées à l'interface utilisateur qui seraient également indexées.

      Cela semble être la meilleure option :
      Disallow: /wp-content/uploads/

      Si je me trompe, veuillez m'expliquer cela afin que je puisse comprendre votre point de vue.

  26. comment créer un fichier robot txt qui autorise UNIQUEMENT l'indexation des pages et des articles.. merci

  27. Je ne suis pas sûr de quel est le problème, mais mon robots.txt a deux versions.
    Une à http://www.example.com/robots.txt et une seconde à example.com/robots.txt

    Quelqu'un peut m'aider, s'il vous plaît ! Dites-moi quelle peut être la cause possible et comment la corriger ?

    • Très probablement, votre hébergeur permet d'accéder à votre site avec les deux URL www et non-www. Essayez de modifier robots.txt à l'aide d'un client FTP. Examinez-le ensuite à partir des deux URL si vous pouvez voir vos modifications sur les deux URL, cela signifie que c'est le même fichier.

      Admin

      • Merci pour la réponse rapide. Je l'ai déjà fait, mais je ne vois aucun changement. Y a-t-il un autre moyen de résoudre ce problème ?

  28. Yoasts blogpost about this topic was right above yours in my search so of course I checked them both. They are contradicting each other a little bit.. For example yoast said that disallowing plugin directories and others, might hinder the Google crawlers when fetching your site since plugins may output css or js. Also mentioned (and from my own experience), yoast doesn’t add anything sitemap related to the robots.txt, rather generates it so that you can add it to your search console. Here is the link to his post, maybe you can re-check because it is very hard to choose whose word to take for it ;)

  29. Comme je ne suis pas doué pour créer ce fichier Robotstxt, puis-je utiliser votre fichier Robots.txt en modifiant les paramètres comme l'URL et le sitemap de mon site, est-ce bien ? ou devrais-je en créer un différent

  30. Bonjour,
    Aujourd'hui, j'ai reçu cet e-mail de Google : « Googlebot ne peut pas accéder aux fichiers CSS et JS »… quelle peut être la solution ?

    Merci

    • Laissez-moi deviner… Vous utilisez des services CDN pour importer des fichiers CSS et JS.
      ou
      Il est possible que vous ayez écrit une syntaxe incorrecte dans ces fichiers.

  31. J'ai une question sur l'ajout de sitemaps. Comment puis-je ajouter les sitemaps Yahoo et Bing au fichier Robots et au répertoire WordPress ?

  32. Merci pour le plan détaillé de l'utilisation du fichier robots.txt. Quelqu'un sait-il si Yahoo utilise également ce robots.txt, et s'il respecte les règles mentionnées dans le fichier ? Je pose cette question car j'ai un « Disallow » pour une certaine page dans mon fichier, mais je reçois du trafic venant de Yahoo sur cette page. Rien de Google, comme il se doit. Merci d'avance.

  33. correction…

    « Si vous utilisez le plugin Yoast’s WordPress SEO ou un autre plugin pour générer votre sitemap XML, alors votre plugin essaiera d'ajouter automatiquement les lignes relatives à votre sitemap dans le fichier robots.txt. »

    Pas vrai. WordPress SEO n'ajoute pas le sitemap au robots.txt

    « J'ai toujours pensé que lier votre sitemap XML depuis votre robots.txt était un peu absurde. Vous devriez les ajouter manuellement à vos Google et Bing Webmaster Tools et vous assurer de consulter leurs commentaires sur votre sitemap XML. C'est la raison pour laquelle notre plugin WordPress SEO ne l'ajoute pas à votre robots.txt. »

    https://yoast.com/wordpress-robots-txt-example/

    Il est également plus recommandé de ne pas interdire le répertoire wp-plugins (voir les raisons dans l'article de Yoast)

    Et personnellement, j'aime simplement supprimer le fichier readme.txt...

    ;-)

  34. J'ai compris le fichier robots.txt et son utilisation. Qu'est-ce que le sitemap et comment puis-je créer un sitemap pour mon site ?

  35. Après avoir lu la documentation de Google, j'ai l'impression que la directive à utiliser dans le fichier robots.txt est disallow, qui indique seulement aux bots ce qu'ils peuvent et ne peuvent pas explorer. Cela ne leur dit pas ce qui peut et ne peut pas être indexé. Vous devez utiliser la balise meta robots noindex pour qu'une page ne soit pas indexée.

  36. article vraiment bon pour un fichier robots.txt optimisé pour le SEO. Mais j'ai besoin que vous donniez un tutoriel sur la façon de téléverser un fichier robots.txt sur un serveur. En tant que débutant, cela semble être un problème majeur de téléverser ce fichier.
    Au fait, merci d'avoir partagé des informations si bénéfiques.
    -Nitin

  37. Quelle est la meilleure façon d'ajouter du code à HTTacess pour bloquer plusieurs referrers de bots spam pour leur URL et leur adresse IP s'il n'y a pas d'URL donnée ?

    Je sais que si vous avez une syntaxe incorrecte lors de la modification de httacess, cela peut mettre votre site hors ligne. Je suis un débutant et j'ai besoin de bloquer ces multiples URL ennuyeuses de Russie, de Chine, d'Ukraine, etc.

    Merci beaucoup

  38. pourquoi faut-il ajouter Allow: !!!
    si je mentionne seulement ce qui doit être Disallow, c'est suffisant. Je n'ai pas besoin d'écrire de code pour Allow car Googlebot ou Bingbot exploreront automatiquement tout le reste.
    Alors pourquoi devrais-je utiliser à nouveau Allow ?

  39. Puisque l'absence du fichier Robots.txt n'empêche pas le site d'être exploré, je suis curieux : existe-t-il des données concrètes sur la façon dont la présence du fichier améliore les performances SEO ?

    J'ai fait une recherche rapide sur Google et je n'ai pas trouvé de données quantitatives à ce sujet. Il y a environ un demi-million d'articles disant : « Hé, cela améliore le SEO ! », mais j'aimerais vraiment savoir de quoi nous parlons ici, même de manière générale.

    Est-ce une amélioration de 5 % ? 50 ? 500 ?

    • Les moteurs de recherche ne partagent pas de telles données. Bien que l'absence d'un fichier robots.txt n'empêche pas les moteurs de recherche d'explorer ou d'indexer un site web. Cependant, c'est une bonne pratique recommandée.

      Admin

  40. Bon timing pour cela. J'essayais de trouver cette information hier.

    La raison pour laquelle je la cherchais est que les outils Google Webmaster me disaient qu'ils ne pouvaient pas explorer correctement mon site car je bloquais diverses ressources nécessaires au bon rendu de la page.

    Ces ressources comprenaient celles trouvées dans /wp-content/plugins/

    Après avoir autorisé ce dossier, l'avertissement a disparu.

    Des idées à ce sujet ?

    • Vous pouvez ignorer ces avertissements en toute sécurité. Ce n'est qu'un avertissement si vous aviez réellement du contenu que vous souhaiteriez indexer. Parfois, les utilisateurs ont restreint les robots de recherche et l'ont oublié. Ces avertissements sont utiles dans ces situations.

      Admin

  41. J'ai une question : beaucoup de gens utilisent un sitemap statique, et vous savez qu'ils ont un site WordPress. Devrions-nous utiliser un sitemap statique ou un sitemap généré par WordPress ?

  42. Sympa, j'aime la façon dont Wpbeginner le fait, et avec ce classement Alexa, cela me semble être la meilleure façon d'utiliser robots.txt...

  43. Que signifie mon fichier robots.txt s'il ressemble à ceci ?

    User-agent: *
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /xmlrpc.php

    • Cela indique simplement que les moteurs de recherche ne doivent pas indexer votre dossier wp-admin, votre dossier wp-includes et le fichier xml-rpc. Parfois, interdire /wp-includes/ peut bloquer certains scripts pour les moteurs de recherche, surtout si votre site utilise ces scripts. Cela peut nuire à votre SEO.

      La meilleure chose à faire est d'aller sur Google Webmaster Tools et de récupérer votre site web en tant que bot. Si tout se charge correctement, vous n'avez rien à craindre. S'il indique que des scripts sont bloqués, vous voudrez peut-être supprimer la ligne wp-includes.

      Admin

      • Je ne vois aucune logique dans votre idée d'avoir un script dans le répertoire includes qui puisse être utilisé par un robot d'exploration / robot... et d'autre part, s'il y a un cas isolé, il est préférable après avoir spécifié le défaut WordPress autorise ce fichier que vous imaginez que les moteurs de recherche utilisent ses scripts ! après tout, WordPress n'a certainement pas par défaut un robots.txt anti-moteurs de recherche !!!!

Laisser un commentaire

Merci d'avoir choisi de laisser un commentaire. N'oubliez pas que tous les commentaires sont modérés conformément à notre politique de commentaires, et votre adresse e-mail ne sera PAS publiée. Veuillez NE PAS utiliser de mots-clés dans le champ du nom. Ayons une conversation personnelle et significative.