SEOのためにWordPressのrobots.txtを最適化する方法

小さな見落としがちなテキストファイルが、静かにウェブサイトのSEOを妨害している可能性があると気づいたときの、あの沈み込むような感覚。多くのサイトオーナーは、robots.txtファイルにある簡単な間違いが、Googleが最も重要なコンテンツを見つけるのを妨げていることに気づいていません。

何千ものWordPressサイトを監査した後、私たちは数え切れないほどこの状況を目にしてきました。良いニュースは、それを修正するのがあなたが思うよりも簡単であるということです。

このガイドでは、WordPressのrobots.txtファイルを最適化するために私たちが使用する、実証済みの正確な手順を説明します。正しく設定し、検索エンジンが効率的にサイトをクロールできるようにする方法を学びます。

SEO向上のためのrobots.txtファイルの最適化

圧倒されていますか?このガイドでカバーするすべての内容の簡単な概要を以下に示します。興味のあるセクションに自由にジャンプしてください。

  1. robots.txtファイルとは何ですか?
  2. WordPressサイトにrobots.txtファイルは必要ですか?
  3. 理想的なrobots.txtファイルとはどのようなものですか?
  4. WordPress で Robots.txt ファイルを作成する方法
  5. Robots.txt ファイルをテストする方法
  6. 最終的な考え
  7. WordPressのrobots.txtに関するよくある質問
  8. WordPressでrobots.txtを使用するための追加リソース

robots.txtファイルとは何ですか?

Robots.txt は、ウェブサイトの所有者が作成できるテキストファイルで、検索エンジンのボットにサイト上のページをどのようにクロールおよびインデックスするかを指示します。

通常、ウェブサイトのルートディレクトリ(メインフォルダとも呼ばれます)に保存されます。robots.txtファイルの基本的な形式は次のようになります:

User-agent: [user-agent name]
Disallow: [URL string not to be crawled]
 
User-agent: [user-agent name]
Allow: [URL string to be crawled]
 
Sitemap: [URL of your XML Sitemap]

特定のURLを許可または禁止するための複数の指示行を含め、複数のサイトマップを追加できます。URLを禁止しない場合、検索エンジンのボットはそれをクロールできると想定します。

robots.txtの例ファイルは次のようになります。

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/
Disallow: /wp-admin/

Sitemap: https://example.com/sitemap_index.xml

上記のrobots.txtの例では、検索エンジンがWordPressのアップロードフォルダ内のファイルをクロールおよびインデックスすることを許可しています。

その後、プラグインとWordPress管理フォルダのクロールとインデックス作成を検索ボットに禁止しました。

最後に、XMLサイトマップのURLを提供しました。

WordPressサイトにrobots.txtファイルは必要ですか?

robots.txt ファイルがなくてもサイトは機能しますが、最適化された robots.txt ファイルを持つサイトは検索結果でより良いパフォーマンスを発揮することが一貫してわかっています。

さまざまな業界のクライアントとの連携を通じて、robots.txt による適切なクロールバジェット管理が、重要なコンテンツのインデックス作成を迅速化し、全体的な SEO パフォーマンスを向上させることを実感しています。

これは、ブログを始めたばかりで、まだコンテンツがあまりない場合には、あまり影響がありません。

ただし、ウェブサイトが成長し、コンテンツが増えるにつれて、ウェブサイトがどのようにクロールおよびインデックスされるかについて、より詳細な制御が必要になる可能性が高くなります。

その理由は次のとおりです。

検索エンジンは、Googleが「クロールバジェット」と呼ぶものを各ウェブサイトに割り当てます。これは、指定された期間内にクロールするページの数です。

数千ものWordPressサイトでのテストを通じて、大規模なサイトは戦略的なrobots.txt構成を通じてこの予算を最適化することから特に恩恵を受けることがわかりました。

例えば、当社のエンタープライズクライアントの 1 社は、推奨される robots.txt の最適化を実装した後、クロール効率が 40% 向上しました。

WordPressの管理ページ、プラグインファイル、テーマフォルダなど、検索ボットにクロールさせたくないページへのアクセスを拒否できます。

不要なページを禁止することで、クロールクォータを節約できます。これにより、検索エンジンはサイト上のさらに多くのページをクロールし、できるだけ早くインデックスできるようになります。

robots.txtファイルを使用するもう1つの良い理由は、検索エンジンがウェブサイト上の投稿やページをインデックスに登録するのを停止したい場合です。

ただし、robots.txtはコンテンツを隠すのに最適な方法ではないことを知っておくことが重要です。他のウェブサイトからリンクされている場合、disallowedページは検索結果に表示される可能性があります。

ページがGoogleに表示されないように確実にしたい場合は、代わりに「noindex」メタタグを使用する必要があります。これは、検索エンジンにページをインデックスに追加しないように指示します。

理想的なrobots.txtファイルとはどのようなものですか?

多くの人気ブログでは非常にシンプルなrobots.txtファイルを使用しています。その内容は、特定のサイトのニーズによって異なる場合があります。

User-agent: *
Disallow:

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

このrobots.txtファイルは、すべてのボットがすべてのコンテンツをインデックスすることを許可し、ウェブサイトのXMLサイトマップへのリンクを提供します。

WordPressサイトの場合、robots.txtファイルには以下のルールをお勧めします。

User-Agent: *
Allow: /wp-content/uploads/
Disallow: /wp-admin/
Disallow: /readme.html
Disallow: /refer/

Sitemap: https://www.example.com/post-sitemap.xml
Sitemap: https://www.example.com/page-sitemap.xml

これは、検索ボットにWordPressのすべての画像とアップロードされたファイルをインデックスするように指示します。これは、Googleのような検索エンジンが理解する便利なコマンドであるAllowディレクティブを具体的に使用します。

これにより、WordPressの管理画面、デフォルトのreadme.htmlファイル(WordPressのバージョンが明らかになる可能性があります)、および/refer/のようなクロークされたアフィリエイトリンクの一般的なディレクトリへの検索ボットによるインデックス作成が禁止されます。

robots.txt ファイルに サイトマップ を追加することで、Google ボットがサイト上のすべてのページを見つけやすくなります。

理想的なrobots.txtファイルがどのようなものかを知ったところで、WordPressでrobots.txtファイルを作成する方法を見てみましょう。

WordPress で Robots.txt ファイルを作成する方法

WordPressでrobots.txtファイルを作成するには2つの方法があります。あなたに最適な方法を選択できます。

All in One SEO を使用して robots.txt ファイルを編集する方法 1

All in One SEO (AIOSEO とも呼ばれる) は、300万以上のウェブサイトで使用されている、市場で最高の WordPress SEO プラグインです。使いやすく、robots.txt ファイルジェネレーターも付属しています。

詳細については、詳細な AIOSEOレビューをご覧ください。

AIOSEOプラグインがまだインストールされていない場合は、WordPressプラグインのインストール方法に関するステップバイステップガイドをご覧ください。

注: AIOSEOの無料版も利用可能で、この機能があります。

プラグインがインストールされ有効化されると、WordPress管理画面から直接robots.txtファイルを作成および編集するために使用できます。

All in One SEO » Tools にアクセスして、robots.txt ファイルを編集してください。

All in One SEOのRobots.txtファイルエディター

まず、「カスタムrobots.txtを有効にする」トグルを青色にクリックして、編集オプションをオンにする必要があります。

このトグルをオンにすると、WordPressでカスタムrobots.txtファイルを作成できます。

カスタム robots.txt ファイルを有効にする

All in One SEOは、画面下部の「Robots.txtプレビュー」セクションに既存のrobots.txtファイルを表示します。

このバージョンでは、WordPress によって追加されたデフォルトのルールが表示されます。

All in One SEOでのRobots.txtファイルプレビュー

これらのデフォルトルールは、検索エンジンに WordPress のコアファイルをクロールしないように指示し、ボットがすべてのコンテンツをインデックスできるようにし、サイトの XML サイトマップへのリンクを提供します。

これで、SEOのためにrobots.txtを改善するために独自のカスタムルールを追加できます。

ルールを追加するには、「User Agent」フィールドにユーザーエージェントを入力します。「*」を使用すると、すべてのユーザーエージェントにルールが適用されます。

次に、検索エンジンにクロールを「許可」するか「禁止」するかを選択します。

次に、「Directory Path」フィールドにファイル名またはディレクトリパスを入力します。

robotsファイルにルールを追加

ルールは自動的に robots.txt に適用されます。別のルールを追加するには、「ルールの追加」ボタンをクリックするだけです。

上記で共有した理想的なrobots.txt形式を作成するまで、ルールを追加することをお勧めします。

カスタムルールは次のようになります。

robots.txtファイルのカスタムプレビュー

完了したら、「変更を保存」ボタンをクリックして変更を保存することを忘れないでください。

方法2:WPCodeを使用したrobots.txtファイルの編集

WPCodeは、カスタムコードを簡単かつ安全にウェブサイトに追加できる強力なコードスニペットプラグインです。

また、robots.txt ファイルをすばやく編集できる便利な機能も含まれています。

注意: WPCode Free Pluginもありますが、ファイルエディタ機能は含まれていません。

まず、WPCodeプラグインをインストールする必要があります。手順については、WordPressプラグインのインストール方法に関する初心者向けガイドをご覧ください。

有効化すると、WPCode » ファイルエディター ページに移動する必要があります。そこに表示されたら、ファイルを編集するために「robots.txt」タブをクリックするだけです。

WPCode robots.txt エディター

これで、robots.txt ファイルの内容を貼り付けるか、入力できます。

終了したら、ページ下部にある「変更を保存」ボタンをクリックして設定を保存してください。

方法3:FTPを使用してrobots.txtファイルを手動で編集する

この方法では、FTPクライアントを使用してrobots.txtファイルを編集する必要があります。または、WordPressホスティングで提供されているファイルマネージャーを使用することもできます。

プロのヒント: 編集する前に、元のrobots.txtファイル(存在する場合)のバックアップコピーをコンピューターにダウンロードすることをお勧めします。そうすれば、問題が発生した場合に簡単に再アップロードできます。

FTPクライアントを使用して、WordPressウェブサイトのファイルに接続するだけです。

サイトに入ると、ウェブサイトのルートフォルダに robots.txt ファイルが表示されます。

FTP で robots ファイルを編集する

表示されない場合は、robots.txt ファイルがない可能性が高いです。

その場合は、そのまま作成できます。

新しいrobotsファイルを作成

robots.txt はプレーンテキストファイルなので、コンピューターにダウンロードして、Notepad や TextEdit のような任意のプレーンテキストエディタで編集できます。

変更を保存した後、robots.txt ファイルをウェブサイトのルートフォルダにアップロードし直すことができます。

Robots.txt ファイルをテストする方法

robots.txtファイルを作成または編集した後、エラーがないか確認するのは良い考えです。小さなタイプミスが検索エンジンから重要なページを誤ってブロックする可能性があるため、この手順は非常に重要です!👍

Googleには以前は専用のテストツールがありましたが、現在はその機能をメインのGoogle Search Consoleレポートに統合しています。

まず、サイトがGoogle Search Consoleに接続されていることを確認してください。まだ行っていない場合は、WordPressサイトをGoogle Search Consoleに追加する方法に関する簡単なガイドに従ってください。

設定が完了したら、Google Search Consoleダッシュボードに移動します。左下のメニューにある設定に移動します。

次に、「クロール」セクションを見つけて、「robots.txt」の横にある「レポートを開く」をクリックします。

Google Search Console の設定で robots.txt レポートを開く

リスト内のファイルの現在のバージョンをクリックするだけです。

このレポートには、Googleが見つけたrobots.txtファイルの最新バージョンが表示されます。検出された構文エラーまたは論理的な問題が強調表示されます。

Google Search Console の robots.txt レポートに有効なファイルが表示されている

ファイルを更新したばかりで、変更がすぐにここに表示されなくても心配しないでください。Googleは、robots.txtファイルの新しいバージョンを1日に1回程度自動的にチェックします。

後でこのレポートを確認して、Googleが最新の変更を認識し、すべてが正常であることを確認できます。

最終的な考え

robots.txtファイルを最適化する目標は、公開されていないページを検索エンジンがクロールしないようにすることです。たとえば、wp-pluginsフォルダ内のページやWordPress管理フォルダ内のページなどです。

SEO専門家の間では、WordPressのカテゴリ、タグ、アーカイブページをブロックすると、クロール率が向上し、インデックス作成が速くなり、ランキングが向上するという一般的な誤解があります。

これは真実ではありません。実際、この方法はGoogleによって強く推奨されておらず、サイトの理解を助けるためのベストプラクティスガイドラインに反しています。

robots.txtファイルをウェブサイト用に作成するために、上記のrobots.txt形式に従うことをお勧めします。

WordPressのrobots.txtに関するよくある質問

WordPressでrobots.txtファイルを最適化することについて、よく寄せられる質問をいくつかご紹介します。

1. robots.txtファイルの主な目的は何ですか?

robots.txtファイルの主な目的は、ウェブサイトのクロールバジェットを管理することです。検索エンジンに無視するページ(管理ページやプラグインファイルなど)を伝えることで、最も重要なコンテンツをより効率的にクロールおよびインデックス化するためにリソースを費やすことができます。

2. WordPressではrobots.txtファイルはどこにありますか?

robots.txtファイルは、ウェブサイトのルートディレクトリにあります。通常、ウェブブラウザでyourdomain.com/robots.txtにアクセスすると表示できます。

3. robots.txtを使用すると、サイトのセキュリティを向上させることができますか?

いいえ、robots.txt はセキュリティ対策ではありません。このファイルは公開されており、リストされた URL へのアクセスを実際にブロックするものではありません。単に、礼儀正しい検索エンジンのクローラーへの指示を提供するだけです。

4. WordPress のカテゴリページとタグページを robots.txt でブロックすべきですか?

いいえ、カテゴリページとタグページをブロックすべきではありません。これらのアーカイブページは、サイトの構造を検索エンジンが理解し、コンテンツを発見するのに役立つため、SEO にとって有用です。これらをブロックすると、検索ランキングに悪影響を与える可能性があります。

WordPressでrobots.txtを使用するための追加リソース

robots.txt ファイルの最適化方法がわかったところで、WordPress で robots.txt を使用することに関連する他の記事もご覧になりたいかもしれません。

この記事が、WordPressのrobots.txtファイルをSEOのために最適化する方法を学ぶのに役立ったことを願っています。また、初心者向けのWordPress SEO完全ガイドや、ウェブサイトを成長させるための最高のWordPress SEOツールに関する専門家のおすすめもご覧ください。

この記事が気に入ったら、WordPressのビデオチュートリアルについては、YouTubeチャンネルを購読してください。 TwitterFacebookでもフォローできます。

開示:当社のコンテンツは読者によってサポートされています。これは、当社のリンクの一部をクリックすると、当社が手数料を得る可能性があることを意味します。WPBeginnerがどのように資金提供されているか、それがなぜ重要か、そしてどのように私たちをサポートできるかについては、こちらをご覧ください。当社の編集プロセスはこちらです。

究極のWordPressツールキット

無料のツールキットにアクセスしましょう - すべてのプロフェッショナルが持つべきWordPress関連の製品とリソースのコレクションです!

読者とのインタラクション

133 CommentsLeave a Reply

  1. 私のWordPressサイトは新しく、デフォルトのrobots.txtは以下のようになっています:
    user-agent: *
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

    Googleに私のコンテンツをクロールおよびインデックスしてもらいたいのですが、このrobots.txtで大丈夫ですか?

  2. 素晴らしい記事です…

    長い間、Robots.txt ファイルと Disallow リンクについて混乱していました。robots ファイル用のタグをコピーしました。これで私のサイトの問題が解決することを願っています。

  3. ホームフォルダのスクリーンショットにあるファイルは、実際には私のホームフォルダの下のpublic_htmlフォルダ内にあります。

    public_html フォルダの下に /refer フォルダがありませんでした。

    WPアカウントのどこにも投稿またはページのXMLファイルがありませんでした。

    作成したrobots.txtファイルに、サンドボックスサイトのクロールを拒否するエントリを含めました。WPでサンドボックスサイトをクロールしないようにクローラーに指示するオプションをすでに選択しているので、これは必要ないかもしれませんが、エントリがあっても害はないと思います。

    • Some hosts do rename public_html to home which is why you see it there. You would want to ensure Yoast is active for the XML files to be available. The method in this article is an additional precaution to help with preventing crawling your site :)

      管理者

  4. こんにちは、素晴らしい記事です。私の問題を解決してくれました。本当にありがとうございます。

  5. User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php <– これが私のrobot.txtコードですが、なぜ私の/wp-adminがインデックスされるのか混乱しています。どのようにインデックスしないようにすればよいですか?

    • 以前にインデックス登録された場合、検索エンジンのキャッシュがクリアされるまで時間がかかる場合があります

      管理者

  6. このウェブサイトは、ブログを始める上で本当に刺激になります。多くのチームに感謝します。このウェブサイトの各記事には、豊富な情報と説明があります。何か問題が発生した場合、まずこのブログを訪れます。ありがとうございます。

  7. Yoastを使用してウェブサイトのロボットを最適化しようとしています。しかし、Yoastのツールには「ファイルエディター」のオプションがありません。
    オプションは2つしかありません。
    (i) インポートとエクスポート
    (ii) 一括エディター
    この問題にどのように対処できるかアドバイスいただけますでしょうか。もしかして、Yoastの無料版を使用していますか?

    • Yoastの無料バージョンにはまだオプションがあります。インストールでファイル編集が無効になっている可能性があります。その場合は、FTPメソッドを使用する必要があるでしょう。

      管理者

  8. robot.txt がどのように機能するかあまり知らなかったので、この記事は本当に役に立ちました。今ではわかっています。

    サイトで一般的に機能するrobots.txtの最適な形式をどのように見つけるのか理解できません。

    チェックしている多くの有名なブログが検索エンジンで上位表示されているのを見ると、異なるrobot.txt形式を使用していることに気づきました。

    あなたからの返信、または助けてくれる誰かからの返信を楽しみにしています。

    • サイトマップを作成し、許可する必要のある領域を許可することが最も重要です。禁止する部分はサイトごとに異なります。ブログ記事でサンプルを共有しましたが、ほとんどのWordPressサイトでこれで十分でしょう。

      管理者

    • Emmanuel さん、こんにちは。

      理想的なrobots.txtファイルに関するセクションを参照してください。それはあなたの要件によります。ほとんどのブロガーは、WordPressの管理フォルダとプラグインフォルダをクロールから除外します。

      管理者

      • 本当にありがとうございます。

        今わかりました。とりあえず一般的な形式から始めようと思います。

  9. よく書かれた記事です。ユーザーには、ROBOTSテキストを作成して有効にする前にサイトマップを作成することをお勧めします。これにより、サイトのクロールが速くなり、インデックスが容易になります。

    Jack

  10. Google ウェブマスターで以下のエラーメッセージが表示され続けます。基本的に行き詰まっています。このチュートリアルで不明だった点がいくつかあります。サイトのルートファイルはどこで見つけられますか?「robots.txt」がすでに存在するかどうかをどのように判断しますか?また、どのように編集しますか?

    • Cherisaさん、こんにちは。

      サイトのルートフォルダとは、wp-admin、wp-includes、wp-content などのフォルダが含まれるフォルダのことです。また、wp-config.php、wp-cron.php、wp-blogheader.php などのファイルも含まれます。

      このフォルダにrobots.txtファイルが見つからない場合は、ファイルが存在しないということです。新しいファイルを作成しても構いません。

      管理者

      • ご返信ありがとうございます。説明されているルートファイルを見つけることができませんでした。設定などの下に、このフォルダにつながるパスディレクトリはありますか?

  11. ウェブサイトへのトラフィックは順調でしたが、5月に入って突然ゼロになりました。現在もこの問題に直面しています。ウェブサイトを復旧するために助けてください。

  12. こんにちは。この情報ありがとうございます。しかし、質問があります。
    Sitemap.xmlとRobots.txtファイルを作成したばかりで、正常にクロールされています。しかし、「Product-Sitemap.xml」をどのように作成できますか?
    Sitemap.xmlファイルにはすべての製品リストがあります。Product-sitemap.xmlを別途作成する必要がありますか?

    GoogleまたはBingに再度送信しますか?
    手伝っていただけませんか…
    ありがとうございます

  13. robots.txtファイルの設定で問題が発生しています。すべてのウェブサイトでrobots.txtが1つしか表示されません。すべてのウェブサイトのrobots.txtファイルを個別に表示できるようにしてください。個々のウェブサイトごとにrobots.txtファイルをすべて個別に持っています。しかし、ブラウザにはすべてのウェブサイトに対してrobots.txtファイルが1つしか表示されません。

  14. 初心者向けRobots.txtの例に
    Disallow: /refer/
    を含めた理由を説明してください。この行の意味が理解できません。これは初心者にとって重要ですか?他の2つのDisallowedについては説明されています。

    ありがとう。

  15. すべてのタグ/mydomain.Comをnofollowにするにはどうすればよいですか?リンクジュースを集中させるためにrobots.txtで?ありがとう。

  16. こんにちは、Yoast SEOでサイトマップに関するエラーが出ています。修正をクリックすると、また元に戻ってしまいます。サイトのHTMLが正しく読み込まれていません。

  17. Google Search Consoleのアカウントを確認したところ、以下の問題が見つかりました。
    ページの一部が読み込まれていません
    ページのすべてのリソースを読み込めませんでした。これは、Googleがページをどのように認識し、理解するかに影響を与える可能性があります。Googleがページをどのように理解するかに影響を与える可能性のあるリソースの可用性の問題を修正してください。

    これは、プラグインに関連するすべてのCSSスタイルシートが、デフォルトのrobots.txtによって禁止されているためです。

    これを許可しない方が良い理由を理解していますが、Googleのアルゴリズムがサイトを低く評価しているのではないかと疑われる場合、代替手段は何になりますか?

  18. こんにちは、

    Googleで私のサイトを検索すると、リンクの下に次のテキストが表示されます。「このサイトのrobots.txtのため、この結果の説明は利用できません。」

    この問題をどのように解決できますか?

    Regards

    • Surenさん、こんにちは。

      サイトのプライバシー設定が誤って変更されたようです。「設定 » 表示設定」ページに移動し、「検索エンジンの可視性」セクションまでスクロールしてください。の横にあるチェックボックスがオフになっていることを確認してください。

      管理者

  19. こんにちは

    ウェブマスターツールで見たところ、以下のような robot.txt ファイルがありました。

    User-agent: * Disallow: /wp-admin/ Allow: /wp-admin/admin-ajax.php

    これで大丈夫ですか?それとも何か他のものを使うべきですか?

  20. 「/wp-content/plugins/」をrobots.txtでブロック(無効化)するのは良い考えですか? プラグインを削除するたびに、そのプラグインの一部のページで404エラーが表示されます。

  21. この説明はとても気に入りました。初心者としてrobot.txtファイルとその用途について非常に混乱していましたが、今ではその目的がわかりました。

  22. robots.txt ファイルで index.php がディスアローされています。その理由を説明していただけますか?それは良い習慣ですか?

  23. Webmaster Toolでこれが起こる理由を教えていただけますか?

    ネットワークに到達できません: robots.txt に到達できませんサイトマップをクロールできませんでした。サイトのルートに robots.txt ファイルが見つかりましたが、ダウンロードできませんでした。アクセス可能であることを確認するか、完全に削除してください。

    robots.txtファイルは存在しますが、まだ

  24. Yoastチームからのこの件に関する興味深いアップデートはこちらです。

    引用:「robots.txtでwp-includesディレクトリやプラグインディレクトリへのアクセスをブロックするという古いベストプラクティスはもはや有効ではありません。」

  25. Allow: /wp-content/uploads/

    これは~ではないでしょうか?
    Disallow: /wp-content/uploads/

    Googleはアップロードしたすべてのページを公開URLとしてインデックスすることを認識しているからですよね?そして、ページ自体にエラーが表示されることになります。何か見落としていることはありますか?

    • 全体として、Google が画像マップを生成するためにクロールするのは実際のページであり、アップロードフォルダではありません。そうすると、すべての小さな画像サイズや UI 用の他の画像もインデックスに登録されるという問題が発生します。

      これが最善の選択肢のようです:
      Disallow: /wp-content/uploads/

      私が間違っている場合は、あなたの考えを理解できるように説明してください。

  26. 私のブログの URL がインデックスに登録されません。robots.txt を変更する必要がありますか? この robots.txt を使用しています。

  27. ページと投稿のみをインデックス許可するrobots.txtの作成方法を教えてください。ありがとうございます。

  28. 何が問題なのかはっきりしませんが、robots.txt が 2 つあります。 1 つは http://www.example.com/robots.txt にあり、もう 1 つは example.com/robots.txt にあります。

    どなたか、助けてください!原因と修正方法を教えていただけますか?

    • おそらく、お使いのウェブホストでは、サイトに wwwとnon-wwwのURLの両方でアクセスできるようになっています。FTPクライアントを使用してrobots.txtを変更してみてください。その後、両方のURLから確認して、両方のURLで変更が見られる場合は、同じファイルであることを意味します。

      管理者

      • 早速のご返信ありがとうございます。すでに試しましたが、変更が見られません。他に解決策はありますか?

  29. Yoasts blogpost about this topic was right above yours in my search so of course I checked them both. They are contradicting each other a little bit.. For example yoast said that disallowing plugin directories and others, might hinder the Google crawlers when fetching your site since plugins may output css or js. Also mentioned (and from my own experience), yoast doesn’t add anything sitemap related to the robots.txt, rather generates it so that you can add it to your search console. Here is the link to his post, maybe you can re-check because it is very hard to choose whose word to take for it ;)

  30. このRobotstxtファイルをうまく作成できないので、URLやサイトマップなどのパラメータを変更してあなたのRobots.txtファイルを使用しても良いですか?それは良いことですか?それとも別のものを作成すべきですか?

  31. こんにちは。 今日、Googleから「GooglebotがCSSおよびJSファイルにアクセスできません」というメールを受け取りました。解決策は何でしょうか?

    ありがとう

    • 推測させてください… CSS および JS ファイルをインポートするために CDN サービスを使用していますか? または これらのファイルに間違った構文を記述した可能性があります。

  32. サイトマップの追加について質問があります。YahooとBingのサイトマップをrobotsファイルとWordPressディレクトリに追加するにはどうすればよいですか?

  33. robotsファイルの使用に関する詳細な概要をありがとうございます。Yahooもこのrobots.txtを使用しており、ファイルに記載されているルールに従うかご存知の方はいらっしゃいますか?特定のページに「Disallow」を設定しているのですが、Yahooからはそのページへのトラフィックがあります。Googleからは、あるべき姿の通り、ありません。よろしくお願いします。

  34. 訂正…

    「YoastのWordPress SEOプラグインやその他のプラグインを使用してXMLサイトマップを生成している場合、プラグインはサイトマップ関連の行をrobots.txtファイルに自動的に追加しようとします。」

    事実ではありません。WordPress SEOはサイトマップをrobots.txtに追加しません。

    「XMLサイトマップをrobots.txtにリンクするのは少し無意味だと常々感じていました。GoogleとBingのWebmaster Toolsに手動で追加し、XMLサイトマップに関するフィードバックを確認する必要があります。これが、当社のWordPress SEOプラグインがrobots.txtに追加しない理由です。」

    https://yoast.com/wordpress-robots-txt-example/

    wp-pluginsディレクトリをdisallowしないこともさらに推奨されます(理由についてはYoastの記事を参照)。

    そして個人的には、readme.txtファイルを削除するだけでいいと思っています…

    ;-)

  35. robots.txt ファイルと robots ファイルの使用について理解しました。サイトマップとは何ですか?自分のサイトのサイトマップを作成するにはどうすればよいですか?

  36. Googleのドキュメントを読んだ後、robots.txtファイルで使用するディレクティブは、ボットがクロールできるものとできないものを伝えるだけのdisallowであるという印象を受けました。それは、ページがインデックスされるものとされないものを伝えるものではありません。ページをnoindexにするには、noindex robots metaタグを使用する必要があります。

  37. SEOに最適化されたrobots.txtファイルに関する非常に良い記事です。しかし、robots.txtファイルをサーバーにアップロードする方法についてのチュートリアルを教えていただく必要があります。初心者なので、そのファイルをアップロードするのは大変な問題のように思えます。
    ところで、このような有益な情報を共有していただきありがとうございます。
    -Nitin

  38. URLが指定されていない場合に、URLとIPアドレスで複数のスパムボットリファラーをブロックするために、HTTacessにコードを追加する最良の方法は何ですか?

    httacessで構文を間違えるとサイトがオフラインになることがあるのは知っています。私は初心者で、ロシア、中国、ウクライナなどからの迷惑な複数のURLをブロックする必要があります。

    ありがとうございます

  39. これらのヒントをありがとう…ロボットtxtファイルを修正しました!やった!

  40. なぜAllow: !!!を追加する必要があるのですか? Disallowしたいものだけを言及すれば十分ではないでしょうか。GooglebotやBingbotは他のすべてを自動的にクロールするので、Allowのコードを書く必要はありません。 では、なぜ再びAllowを使用する必要があるのでしょうか?

  41. Robots.txtファイルがないとサイトのクロールが止まるわけではないので、疑問に思っています。ファイルがあることでSEOパフォーマンスがどれだけ向上するかについての具体的なデータはありますか?

    簡単なGoogle検索をしましたが、定量的なデータは見つかりませんでした。「SEOが向上する!」という記事が約50万件ありますが、具体的に何について話しているのか、一般的にでも知りたいです。

    これは5%のブーストですか? 50? 500?

    • 検索エンジンはこのようなデータを共有しません。robots.txtファイルがないからといって、検索エンジンがウェブサイトをクロールまたはインデックスすることを停止するわけではありません。ただし、推奨されるベストプラクティスです。

      管理者

  42. タイミングが良いですね。まさに昨日この情報を探していました。

    Googleウェブマスターツールが、ページの適切なレンダリングに必要なさまざまなリソースをブロックしているため、サイトを適切にクロールできないと通知していたため、それを検索していました。

    これらのリソースには、 /wp-content/plugins/ にあるものが含まれていました。

    このフォルダを許可した後、警告は消えました。

    これについて何か考えはありますか?

    • これらの警告は無視しても安全です。インデックスさせたいコンテンツが実際にある場合にのみ警告となります。ユーザーが検索ボットを制限していて、それを忘れている場合があります。これらの警告は、そのような状況で役立ちます。

      管理者

  43. 静的なサイトマップを使用している人が多く、WordPressサイトを使っていることをご存知かと思います。静的なサイトマップを使うべきか、WordPressが生成するサイトマップを使うべきか、という質問があります。

  44. いいですね。Wpbeginnerの方法が好きです。アレクサのランクを考えると、robots.txtを「訴える」のが最善の方法のように見えます。

  45. robots.txtファイルがこのようになっている場合、どういう意味ですか?

    User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Disallow: /xmlrpc.php

    • これは、検索エンジンがwp-adminフォルダ、wp-includesフォルダ、およびxml-rpcファイルをインデックスしないように指示しているだけです。場合によっては、/wp-includes/をDisallowすると、サイトがそれらのスクリプトを使用している場合に、検索エンジン用の特定のスクリプトがブロックされる可能性があります。これはSEOに悪影響を与える可能性があります。

      最善の方法は、Googleウェブマスターツールにアクセスし、そこでボットとしてウェブサイトを取得することです。すべて正常に読み込まれる場合は、心配する必要はありません。スクリプトがブロックされていると表示される場合は、wp-includes行を削除することを検討してください。

      管理者

      • クロール/ロボットが使用できるincludesディレクトリ内のスクリプトを持つというあなたの考えには論理が見当たりません。また、もし孤立したケースがあるなら、デフォルトのWordPressがこのファイルを許可した後で指定する方が良いでしょう。検索エンジンは彼のスクリプトを使用します!結局のところ、WordPressは確かにデフォルトで検索エンジン用のrobots.txtアンチエンジンを持っていません!!!!

コメントを残す

コメントを残していただきありがとうございます。すべてのコメントは、当社のコメントポリシーに従ってモデレーションされますので、ご了承ください。メールアドレスは公開されません。名前フィールドにキーワードを使用しないでください。個人的で有意義な会話をしましょう。