Trusted WordPress tutorials, when you need them most.
Beginner’s Guide to WordPress
Coppa WPB
25 Million+
Websites using our plugins
16+
Years of WordPress experience
3000+
WordPress tutorials
by experts

Come ottimizzare il file Robots.txt di WordPress per la SEO

Recentemente, uno dei nostri lettori ci ha chiesto come ottimizzare il file robots.txt per migliorare la SEO.

Il file robots.txt indica ai motori di ricerca come effettuare il crawling del vostro sito web, il che lo rende uno strumento SEO incredibilmente potente.

In questo articolo vi mostreremo alcuni consigli su come creare un file robots.txt perfetto per la SEO.

Optimizing robots.txt file for better SEO

Che cos’è un file Robots.txt?

Robots.txt è un file di testo che i proprietari di siti web possono creare per indicare ai bot dei motori di ricerca come scansionare e indicizzare le pagine dei loro siti.

In genere viene memorizzato nella directory principale (nota anche come cartella principale) del sito web. Il formato di base di un file robots.txt è il seguente:

User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
 
User-agent: [user-agent name]
Allow: [URL string to be crawled]
 
Sitemap: [URL of your XML Sitemap]

È possibile avere più righe di istruzioni per consentire o non consentire URL specifici e aggiungere più sitemap. Se non si disconosce un URL, i bot dei motori di ricerca presumono di poterlo scansionare.

Ecco come può apparire un file robots.txt di esempio:

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/

Sitemap: https://example.com/sitemap_index.xml

Nell’esempio di robots.txt di cui sopra, abbiamo permesso ai motori di ricerca di scansionare e indicizzare i file nella cartella uploads di WordPress.

In seguito, abbiamo impedito ai bot di ricerca di effettuare il crawling e l’indicizzazione dei plugin e delle cartelle di amministrazione di WordPress.

Infine, abbiamo fornito l’URL della nostra sitemap XML.

Avete bisogno di un file Robots.txt per il vostro sito WordPress?

Se non si dispone di un file robots.txt, i motori di ricerca effettueranno comunque la scansione e l’indicizzazione del sito web. Tuttavia, non sarete in grado di dire loro quali pagine o cartelle non devono essere scansionate.

Questo non avrà molto impatto quando si apre un blog per la prima volta e non si hanno molti contenuti.

Tuttavia, quando il vostro sito web cresce e aggiungete più contenuti, è probabile che vogliate avere un controllo migliore sul modo in cui il vostro sito web viene carrellato e indicizzato.

Ecco perché.

I bot di ricerca hanno una quota di crawl per ogni sito web.

Ciò significa che il sistema esegue il crawling di un certo numero di pagine durante una sessione di crawling. Se esauriscono il budget di crawling prima di aver terminato la scansione di tutte le pagine del vostro sito, torneranno e riprenderanno la scansione nella sessione successiva.

Questo può rallentare il tasso di indicizzazione del vostro sito web.

È possibile risolvere questo problema impedendo ai bot di ricerca di tentare la scansione di pagine non necessarie, come le pagine di amministrazione di WordPress, i file dei plugin e la cartella dei temi.

Disabilitando le pagine non necessarie, si risparmia la quota di crawl. Questo aiuta i motori di ricerca a scansionare un numero ancora maggiore di pagine del vostro sito e a indicizzarle il più rapidamente possibile.

Un altro buon motivo per utilizzare un file robots.txt è quando si vuole impedire ai motori di ricerca di indicizzare un post o una pagina del proprio sito web.

Questo non è il modo più sicuro per nascondere i contenuti al pubblico, ma vi aiuterà a evitare che i contenuti appaiano nei risultati di ricerca.

Come si presenta un file Robots.txt ideale?

Molti blog popolari utilizzano un file robots.txt molto semplice. Il loro contenuto può variare a seconda delle esigenze del sito specifico:

User-agent: *
Disallow:

Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml

Questo file robots.txt consente a tutti i bot di indicizzare tutti i contenuti e fornisce loro un link alle sitemap XML del sito web.

Per i siti WordPress, si consiglia di inserire le seguenti regole nel file robots.txt:

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/

Sitemap: http://www.example.com/post-sitemap.xml
Sitemap: http://www.example.com/page-sitemap.xml

Indica ai bot di ricerca di indicizzare tutte le immagini e i file di WordPress. Impedisce ai bot di ricerca di indicizzare l’area di amministrazione di WordPress, il file readme e i link affiliati occultati.

Aggiungendo le sitemap al file robots.txt, si facilita ai bot di Google l’individuazione di tutte le pagine del sito.

Ora che conoscete l’aspetto di un file robots.txt ideale, vediamo come creare un file robots.txt in WordPress.

Come creare un file Robots.txt in WordPress

Esistono due modi per creare un file robots.txt in WordPress. Potete scegliere il metodo che funziona meglio per voi.

Metodo 1: Modifica del file Robots.txt con All in One SEO

All in One SEO, noto anche come AIOSEO, è il miglior plugin SEO per WordPress sul mercato, utilizzato da oltre 3 milioni di siti web. È facile da usare e viene fornito con un generatore di file robots.txt.

Per saperne di più, consultate la nostra recensione dettagliata di AIOSEO.

Se non avete ancora installato il plugin AIOSEO, potete consultare la nostra guida passo passo su come installare un plugin per WordPress.

Nota: è disponibile anche una versione gratuita di AIOSEO che dispone di questa funzione.

Una volta installato e attivato il plugin, è possibile utilizzarlo per creare e modificare il file robots.txt direttamente dall’area di amministrazione di WordPress.

Basta andare su All in One SEO ” Strumenti per modificare il file robots.txt.

Robots.txt file editor in All in One SEO

Per prima cosa, è necessario attivare l’opzione di modifica facendo clic sulla levetta blu “Enable Custom Robots.txt”.

Con questa opzione attivata, è possibile creare un file robots.txt personalizzato in WordPress.

Enable custom robots.txt file

All in One SEO mostrerà il file robots.txt esistente nella sezione “Anteprima robots.txt” nella parte inferiore dello schermo.

Questa versione mostra le regole predefinite aggiunte da WordPress.

Robots.txt file preview in All in One SEO

Queste regole predefinite indicano ai motori di ricerca di non effettuare il crawling dei file principali di WordPress, consentono ai bot di indicizzare tutti i contenuti e forniscono loro un link alle sitemap XML del sito.

Ora è possibile aggiungere regole personalizzate per migliorare il robots.txt per la SEO.

Per aggiungere una regola, inserire un agente utente nel campo “Agente utente”. Utilizzando un *, la regola verrà applicata a tutti gli agenti utente.

Quindi, selezionare se si desidera “Consentire” o “Disconsentire” il crawling dei motori di ricerca.

Quindi, inserire il nome del file o il percorso della directory nel campo “Percorso directory”.

Add robots file rules

La regola verrà automaticamente applicata al file robots.txt. Per aggiungere un’altra regola, basta fare clic sul pulsante “Aggiungi regola”.

Si consiglia di aggiungere regole fino a creare il formato robots.txt ideale che abbiamo condiviso sopra.

Le regole personalizzate avranno il seguente aspetto.

Custom robots txt file preview

Una volta terminato, non dimenticate di fare clic sul pulsante “Salva modifiche” per memorizzare le modifiche.

Metodo 2: Modifica del file Robots.txt con WPCode

WPCode è un potente plugin per gli snippet di codice che consente di aggiungere codice personalizzato al proprio sito web in modo semplice e sicuro.

Include anche una comoda funzione che consente di modificare rapidamente il file robots.txt.

Nota: esiste anche un plugin gratuito di WPCode, ma non include la funzione di editor di file.

La prima cosa da fare è installare il plugin WPCode. Per istruzioni passo passo, consultate la nostra guida per principianti su come installare un plugin di WordPress.

All’attivazione, è necessario navigare nella pagina WPCode ” File Editor. Una volta lì, è sufficiente fare clic sulla scheda ‘robots.txt’ per modificare il file.

WPCode robots.txt Editor

Ora è possibile incollare o digitare il contenuto del file robots.txt.

Una volta terminato, assicurarsi di fare clic sul pulsante “Salva modifiche” in fondo alla pagina per memorizzare le impostazioni.

Metodo 3: Modifica manuale del file Robots.txt tramite FTP

Per questo metodo, è necessario utilizzare un client FTP per modificare il file robots.txt. In alternativa, potete utilizzare il file manager fornito dal vostro hosting WordPress.

È sufficiente collegarsi ai file del proprio sito web WordPress utilizzando un client FTP.

Una volta entrati, sarà possibile vedere il file robots.txt nella cartella principale del sito web.

Edit robots file via FTP

Se non ne vedete uno, è probabile che non abbiate un file robots.txt.

In questo caso, si può procedere a crearne uno.

Create new robots file

Robots.txt è un file di testo semplice, il che significa che è possibile scaricarlo sul computer e modificarlo con qualsiasi editor di testo semplice, come Notepad o TextEdit.

Dopo aver salvato le modifiche, è possibile caricare il file robots.txt nella cartella principale del sito web.

Come testare il file Robots.txt

Una volta creato il file robots.txt, è sempre una buona idea testarlo utilizzando uno strumento robots.txt tester.

Esistono molti strumenti di verifica del robots.txt, ma noi consigliamo di utilizzare quello presente all’interno di Google Search Console.

Per prima cosa, è necessario che il vostro sito sia collegato a Google Search Console. Se non l’avete ancora fatto, consultate la nostra guida su come aggiungere il vostro sito WordPress a Google Search Console.

Quindi, è possibile utilizzare lo strumento di test dei robot di Google Search Console.

Choose property

È sufficiente selezionare la proprietà dall’elenco a discesa.

Lo strumento recupera automaticamente il file robots.txt del vostro sito web ed evidenzia gli errori e gli avvertimenti se ne trova qualcuno.

Robots tester tool

Pensieri finali

L’obiettivo dell’ottimizzazione del file robots.txt è quello di impedire ai motori di ricerca di scansionare le pagine che non sono disponibili pubblicamente. Ad esempio, le pagine della cartella wp-plugins o quelle della cartella di amministrazione di WordPress.

Un mito comune tra gli esperti SEO è che il blocco delle categorie, dei tag e delle pagine di archivio di WordPress migliori la velocità di crawl e porti a un’indicizzazione più rapida e a classifiche più alte.

Questo non è vero. È anche contrario alle linee guida per i webmaster di Google.

Si consiglia di seguire il formato robots.txt di cui sopra per creare un file robots.txt per il proprio sito web.

Guide di esperti sull’uso di Robots.txt in WordPress

Ora che sapete come ottimizzare il vostro file robots.txt, potreste voler vedere altri articoli relativi all’uso di robots.txt in WordPress.

Speriamo che questo articolo vi abbia aiutato a capire come ottimizzare il file robots.txt di WordPress per la SEO. Potreste anche voler consultare la nostra guida definitiva alla SEO di WordPress e le nostre scelte di esperti sui migliori strumenti SEO per WordPress per far crescere il vostro sito web.

Se questo articolo vi è piaciuto, iscrivetevi al nostro canale YouTube per le esercitazioni video su WordPress. Potete trovarci anche su Twitter e Facebook.

Divulgazione: I nostri contenuti sono sostenuti dai lettori. Ciò significa che se cliccate su alcuni dei nostri link, potremmo guadagnare una commissione. Vedi come WPBeginner è finanziato , perché è importante e come puoi sostenerci. Ecco il nostro processo editoriale .

Avatar

Editorial Staff at WPBeginner is a team of WordPress experts led by Syed Balkhi with over 16 years of experience in WordPress, Web Hosting, eCommerce, SEO, and Marketing. Started in 2009, WPBeginner is now the largest free WordPress resource site in the industry and is often referred to as the Wikipedia for WordPress.

Il kit di strumenti WordPress definitivo

Ottenete l'accesso gratuito al nostro kit di strumenti - una raccolta di prodotti e risorse relative a WordPress che ogni professionista dovrebbe avere!

Reader Interactions

129 commentiLascia una risposta

  1. Syed Balkhi

    Hey WPBeginner readers,
    Did you know you can win exciting prizes by commenting on WPBeginner?
    Every month, our top blog commenters will win HUGE rewards, including premium WordPress plugin licenses and cash prizes.
    You can get more details about the contest from here.
    Start sharing your thoughts below to stand a chance to win!

  2. Moinuddin Waheed

    Thanks for this informative post about robots.txt file.
    I didn’t know that websites should maintain this file in order to have a control over Google bots that how should they crawl over our pages and posts.
    for beginner websites just starting out, is there a need to have robots.txt file or is there a way like plugin which can a make a robots.txt file for our website?

    • WPBeginner Support

      Most SEO plugins help with setting up the robots.txt for a new site to prevent bots from scrolling sections they shouuldn’t.

      Admin

  3. Jiří Vaněk

    Thanks to this article, I checked the robots.txt file and added URL addresses with sitemaps. At the same time, I had other problematic lines there, which were revealed by the validator. I wasn’t familiar with sitemaps in robots.txt until now. Thanks.

    • WPBeginner Support

      You’re welcome, glad our guide could help!

      Admin

  4. Stéphane

    Hi,

    Thanks for that post, it becomes clearer how to use the robots.txt file. On most websites that you find while looking for some advice regarding the robots.txt file, you can see that the following folders are explicitly excluded from crawling (for WordPress):
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes

    I don’t really understand the reasons to exclude those folders (is there one actually?). What would be your take regarding that matter?

    • WPBeginner Support

      It is mainly to prevent anything in those folders from showing as a result when a user searches for your site. As that is not your content it is not something most people would want to appear for the site’s results.

      Admin

  5. zaid haris

    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    GSC show the coverage error for “Disallow: /wp-admin/” Is this wrong?

    • WPBeginner Support

      For most sites, you do not want anything from your wp-admin to appear as a search result so it is fine and expected to receive the coverage area when you deny Google the ability to scan your wp-admin.

      Admin

  6. Hansini

    I am creating my robots.txt manually as you instructed for my WordPress site.

    I have one doubt. when I write User-Agent: * won’t it allow another spamming robot to access my site?
    Should I write User-Agent: * or User-Agent: Googlebot.?

    • WPBeginner Support

      The User-Agent line is setting the rules that all robots should follow on your site, if you specify a specific bot on that line it would be setting rules for that specific bot and none of the others.

      Admin

  7. Nishant

    What should we write to make google index my post?

  8. Sanjeev Pandey

    should we also disallow /wp-content/themes/ ?

    It is appearing in the search result when I run the command site:abcdef.com in google search

    • WPBeginner Support

      You would not want to worry about blocking your themes folder and as you write SEO-friendly content you should no longer see the themes as a search result.

      Admin

  9. Salem

    HI, What’s means ” Disallow: /readme.html & Disallow: /refer/ ” ?

    • WPBeginner Support

      That means you’re telling search engines to not look at any referral links or the readme.html file.

      Admin

  10. sean

    Hi, what are the pros and cons of blocking wp-content/uploads
    Thank you

    • WPBeginner Support

      If you block your uploads folder then search engines would not normally crawl your uploaded content like images.

      Admin

  11. Piyush

    thanks for solve my problem

    • WPBeginner Support

      You’re welcome :)

      Admin

  12. Ravi kumar

    Sir i m very confused about robot.txt many time i submitted site map in blogger but the after 3,4 days coming the same issue what is the exactly robot.txt.. & how submit that please guide me

  13. Prem

    If I no index a url or page using robots.txt file, does google shows any error in search console?

    • WPBeginner Support

      No, Google will not list the page but if the page is listed it will not show an error.

      Admin

  14. Bharat

    Hi
    I have a question
    i receive google search console coverage issue warning for blocked by robots.txt
    /wp-admin/widgets.php
    My question is, can i allow for wp-admin/widgets.php to robots.txt and this is safe?

    • WPBeginner Support

      IF you wanted to you can but that is not a file that Google needs to crawl.

      Admin

  15. Anthony

    Hi there, I’m wondering if you should allow: /wp-admin/admin-ajax.php?

    • WPBeginner Support

      Normally, yes you should.

      Admin

      • Jaira

        May I know why you should allow /wp-admin/admin-ajax.php?

        • WPBeginner Support

          It is used by different themes and plugins to appear correctly for search engines.

  16. Amila

    Hello! I really like this article and as I’m a beginner with all this crawling stuff I would like to ask something in this regard. Recently, Google has crawled and indexed one of my websites on a really terrible way, showing the pages in search results which are deleted from the website. The website didn’t have discouraged search engine from indexing in the settings of WordPress at the beginning, but it did later after Google showed even 3 more pages in the search results (those pages also doesn’t exist) and I really don’t understand how it could happen with “discourage search engine from indexing” option on. So, can the Yoast method be helpful and make a solution for my website to Google index my website on the appropriate way this time? Thanks in advance!

    • WPBeginner Support

      The Yoast plugin should be able to assist in ensuring the pages you have are indexed properly, there is a chance before you discouraged search engines from crawling your site your page was cached.

      Admin

      • Amila

        Well yes and from all pages, it cached the once who doesn’t exist anymore. Anyway, as the current page is on “discourage” setting on, is it better to keep it like that for now or to uncheck the box and leave the Google to crawl and index it again with Yoast help? Thanks! With your articles, everything became easier!

        • WPBeginner Support

          You would want to have Google recrawl your site once it is set up how you want.

  17. Pradhuman Kumar

    Hi I loved the article, very precise and perfect.
    Just a small suggestion kindly update the image ROBOTS.txt tester, as Google Console is changed and it would be awesome if you add the link to check the robots.txt from Google.

    • WPBeginner Support

      Thank you for the feedback, we’ll be sure to look into updating the article as soon as we are able.

      Admin

  18. Kamaljeet Singh

    My blog’s robots.txt file was:
    User-Agent: *
    crawl-delay: 10

    After reading this post, I have changed it into your recommended robots.txt file. Is that okay that I removed crawl-delay

    • WPBeginner Support

      It should be fine, crawl-delay tells search engines to slow down how quickly to crawl your site.

      Admin

  19. reena

    Very nicely described about robot.text, i am very happy
    u r very good writer

    • WPBeginner Support

      Thank you, glad you liked our article :)

      Admin

  20. JJ

    What is Disallow: /refer/ page ? I get a 404, is this a hidden wp file?

    • Editorial Staff

      We use /refer/ to redirect to various affiliate links on our website. We don’t want those to be indexed since they’re just redirects and not actual content.

      Admin

  21. Sagar Arakh

    Thank you for sharing. This was really helpful for me to understand robots.txt
    I have updated my robots.txt to the ideal one you suggested. i will wait for the results now

    • WPBeginner Support

      You’re welcome, glad you’re willing to use our recommendations :)

      Admin

  22. Akash Gogoi

    Very helpful article. Thank you very much.

    • WPBeginner Support

      Glad our article was helpful :)

      Admin

  23. Zingylancer

    Thanks for share this useful information about us.

    • WPBeginner Support

      Glad we could share this information about the robots.txt file :)

      Admin

  24. Jasper

    thanks for update information for me. Your article was good for Robot txt. file. It gave me a piece of new information. thanks and keep me updating with new ideas.

    • WPBeginner Support

      Glad our guide was helpful :)

      Admin

  25. Imran

    Thanks , I added robots.txt in WordPress .Very good article

    • WPBeginner Support

      Thank you, glad our article was helpful :)

      Admin

Lascia una risposta

Grazie per aver scelto di lasciare un commento. Tenga presente che tutti i commenti sono moderati in base alle nostre politica dei commenti e il suo indirizzo e-mail NON sarà pubblicato. Si prega di NON utilizzare parole chiave nel campo del nome. Avremo una conversazione personale e significativa.