MENU
  • ブログ用語集(ガイド)
  • ブログ運営基礎知識
  • SEOノウハウ
  • ブログ収益化
  • WordPress
  • Webデザイン
  • PC
  • サービス一覧
  • 無料相談
セオリコ
  • ブログ用語集
  • 記事一覧
    • ブログ基礎知識
      • ブログ基礎知識
      • ブログの書き方
      • サーバー関連
    • ブログ収益化
      • Google AdSense
    • SEO
    • Webデザイン
      • CSSデザイン
    • WordPress
      • WordPress エラー修正方法まとめ
      • WordPressテーマ
      • WordPressプラグイン
      • ブログカスタマイズ
    • PC関連
      • OS・ソフトウェア
      • ハードウェア
  • サービス一覧
    • ブログ個別サポート(コンサルティング)
    • サイト診断(Google AdSense 審査対策)
    • Search Console データ分析
    • WordPress エラー修復
    • Link Map Insights
  • 無料相談
セオリコ
  • ブログ用語集
  • 記事一覧
    • ブログ基礎知識
      • ブログ基礎知識
      • ブログの書き方
      • サーバー関連
    • ブログ収益化
      • Google AdSense
    • SEO
    • Webデザイン
      • CSSデザイン
    • WordPress
      • WordPress エラー修正方法まとめ
      • WordPressテーマ
      • WordPressプラグイン
      • ブログカスタマイズ
    • PC関連
      • OS・ソフトウェア
      • ハードウェア
  • サービス一覧
    • ブログ個別サポート(コンサルティング)
    • サイト診断(Google AdSense 審査対策)
    • Search Console データ分析
    • WordPress エラー修復
    • Link Map Insights
  • 無料相談

WordPress「robots.txt」の設定例と作成方法

2024 9/11
WordPress
2024/09/11

robots.txt は、検索エンジンなどのクロールをこちらから制御するファイルです。

実のところ、個人運営の WordPress ブログで robots.txt を設定・作成する必要はありません。必要になるとしたら、以下の 2 パターンぐらいです。

  • 検索 bot 以外の特定のクローラーをブロックしたい
  • クロールしてほしくないファイルがある

間違えて設定すると SEO に重大な悪影響を及ぼすので、十分にご注意ください。

本記事では robots.txt の基礎知識や作成方法・設定例を解説していきます。上記のパターンに該当する、またはブログ以外の大規模サイトを手掛けるときのご参考まで。

目次

robots.txt とは

WordPress は様々なページ・ファイルを自動的に生成しており、テーマやプラグインをインストールすると、その分だけファイルも増えます。

SEO の観点で言うと、そのファイルは以下の 2 つに分けられます。

  • 検索エンジンに見せるべきもの
  • 検索エンジンに見せなくてよいもの

「検索エンジンに見せるかどうか」を制御するのが robots.txt の役割。

検索エンジンに見せるべき重要なページ・ファイルをこちらから指定することで、効率的にブログ内をクロールしてもらえるのです(絶対的に従ってくれるわけではない)。

この手法は「クロール最適化」と呼ばれますが、間違った設定をするとクロールをブロックすることになり、検索インデックスの登録にも影響します。

ブログ記事が Google 検索のインデックスに登録されない原因と解決策

個人ブログで robots.txt 設定が不要な理由

robots.txt によるクロール制御が必要なのは、何万ページもあるような大規模サイトのみです。

数百記事ほどの個人ブログなら robots.txt を編集する必要はなく、WordPress に任せておけばまったく問題ありません。

一昔前は Google の性能が今ほどよくなかったため、JavaScript や CSS をクロールしないよう制御していたブログもありました。

現在の検索エンジンは、人間と同じ見た目でページを理解しているので、CSS などのクロールをブロックすると検索順位に悪影響を及ぼしてしまいます。

別々のファイルにある JavaScript や CSS などのリソースが(robots.txt などにより)Googlebot をブロックしている場合、Google のインデクシング システムは、そのサイトを一般ユーザーと同様には認識できません。皆様のコンテンツをインデックス登録できるように JavaScript や CSS の取得を Googlebot に許可することをおすすめします。これは、モバイル向けのウェブサイトでは特に重要です。

ウェブページをより深く理解するようになりました  |  Google 検索セントラル ブログ

下手にいじらないほうがよい、ということですね。

WordPress における robots.txt の仕様

robots.txt を見てみる前に、WordPress 本体の中身がどうなっているか確認しておきましょう。

FTP クライアントソフトで接続すると、以下のように複数のディレクトリとファイルが表示されます。

FileZillaでWordPressサイトに接続
FiliZilla で接続した画面

各ディレクトリ含まれているファイルは下表のとおり。

ディレクトリ名内容
wp-admin管理画面の制御などに必要なファイル
wp-contentテーマファイル・プラグインファイル・アップロードファイル
wp-includesブログ表示に必要なファイル

「wp-admin」の中にあるほぼすべてのファイルは管理用のため、検索 bot にクロールしてもらう必要はありません。

そのため、WordPress はデフォルトで「wp-admin」内のクロールを拒否するようになっています。

WordPress の robots.txt はどこにある?

robots.txt はブラウザで実際にアクセスすると表示されます。

https://example.com/robots.txt

WordPress robots.txt 例

しかし、先ほど確認した WordPress のファイル群には robots.txt が見当たりません。

FileZillaでWordPressサイトに接続
robots.txt ファイルがどこにもない

実は、WordPress は「robots.txt にアクセスがあった場合に自動生成される」仕組みになっています。実体がないので、仮想 robots.txt ということですね。

仮想 robots.txt の内容は、管理画面の設定やプラグインの設定によって自動的に変更されます。

手動で作成した robots.txt ファイルをアップロードすることもできますが、その場合は仮想ファイルは生成されずアップロードしたファイルが優先されます。

以下の条件では仮想 robots.txt が生成されないので注意しましょう。

  • パーマリンク設定が「基本」になっている場合
  • サブディレクトリで WordPress を運用している場合

仮想 robots.txt の中身と意味

デフォルトで自動生成される仮想 robots.txt の中身は、このようになっています。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://example.com/wp-sitemap.xml

それぞれの意味は下表のとおり。

行数指定意味
1User-agentクロール bot の種類を指定します。「*」は、すべての bot を対象とする、という意味。
2Disallow許可しない、という意味。「wp-admin」内のクロールを拒否する指定です。
3Allow許可する、という意味。「wp-admin 内の admin-ajax.php」のクロールを許可する指定になっています。
4SitemapXML サイトマップの場所を伝えています。

個人ブログであればデフォルトのままで問題なく、編集したから SEO で優位になるということもありません。こういう仕組みがあるんだ、と覚えておけば十分です。

robots.txt 作成・編集方法

robots.txt を作成・編集する方法は 2 つあります。

  1. プラグインで仮想 robots.txt を編集する
  2. 実ファイルを作成して FTP でアップロードする

プラグイン利用のほうが簡単ですが、プラグインを増やしたくない場合は FTP を使いましょう。

プラグインで仮想 robots.txt を編集する場合

WordPress には、仮想 robots.txt 編集のみを目的としたプラグインがいくつかあります。

  • WP Robots Txt
  • Virtual Robots.txt

SEO 総合プラグインにも編集機能がありますが、robots.txt 編集のためだけに導入するのはおすすめしません。

  • Rank Math SEO
  • Yoast SEO
  • All in One SEO

サイトの状況に合わせて選択してください。

Rank Math SEO robots.txt 編集画面
Rank Math SEO の robots.txt 編集画面

操作は簡単ですが、プラグインを外すと元に戻ってしまうのがデメリットですね。

WordPress に SEO プラグインは必要? 導入するさいの注意点

実ファイルを作成して FTP でアップロードする場合

robots.txt を手動で作成してアップロードする場合、「テキストエディタ」と「FTP クライアントソフト」が必要です。

STEP
テキストエディタで robots.txt を作成

テキストエディタで robots.txt を作成します。

ファイル名が間違っていると認識されないので気をつけましょう。「s」が抜けているケースをよく見かけます。

Notepad++ 使用例

文字コードは WordPress と同じ「UTF-8(BOM なし)」で大丈夫です。

WordPressの文字コード(UTF-8)と改行コード(LF)

STEP
FTP で robots.txt をアップロード

FTP でルートに robots.txt をアップロードします。

robots.txt をアップロード

再編集する場合は、FTP で robots.txt をダウンロードして編集し、再度アップロード・上書きします。

頻繁に編集するファイルではありませんが、仮想 robots.txt のように管理画面から編集できないのがデメリットです。

robots.txt テスターで最終チェックする

上記いずれかの方法で編集したあと、間違った設定になっていないか Search Console でチェックしておくのが確実です。

設定を間違えると、永遠に検索結果に出てこなくなる可能性もあるので、十分に気をつけてください。

2023 年 12 月 12 日に robots.txt テスターは廃止され、Search Console のレポートで確認する仕様となりました。

robots.txt のステータスを確認できる新しいレポートが Search Console に追加される  

WordPress の robots.txt 設定例

冒頭で触れたように、個人ブログで robots.txt 設定が必要なのは以下のケースです。

  • 検索 bot 以外の特定のクローラーをブロックしたい
  • クロールしてほしくないファイルがある

具体的な設定例を見ていきましょう。

基本形は、WordPress の仮想 robots.txt と同じ。新たに設定する場合はここに追記していきます。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://example.com/wp-sitemap.xml

SEO ツールのクロールをブロックする場合

Web サイトをクロールしているのは、Google や Bing などの検索サイトだけではありません。

たとえば、Ahrefs や Semrush といった SEO ツールも、独自のクローラーで各ページの構成・サイトの内部構造・被リンク状況などを収集しています。そうしたデータをできるだけ見られたくないなら、クロールを拒否しておきましょう。

設定例は以下のとおり。「AhrefsBot」と「SemrushBot」のクロールを全面拒否する形です。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

User-agent: AhrefsBot
Disallow: /

User-agent: SemrushBot
Disallow: /

Sitemap: https://example.com/wp-sitemap.xml

自分のブログを監査する目的で SEO ツールを利用している場合、クロール拒否すると正確なデータが得られません。

ChatGPT のクロールをブロックする場合

AI ツールも、独自のクローラーを使って Web サイトのデータを収集し、学習に使っています。また、ChatGPT のプラグインを使い、検索上位サイトのデータを分析・リライトするような人もいます。

学習や分析を拒否したい場合は、クロールをブロックしておきましょう。User-agent は次の 2 種類です。

  • ChatGPT 本体:GPTBot
  • ChatGPT プラグイン:ChatGPT-User

どちらも完全に拒否する場合は、以下の設定となります。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

User-agent: GPTBot
Disallow: /

User-agent: ChatGPT-User
Disallow: /

Sitemap: https://example.com/wp-sitemap.xml

特典配布用の PDF などをブロックする場合

メルマガ登録特典など、何らかの条件をもとにダウンロードファイルを提供している場合、そのファイルが検索結果に表示されるのは好ましくありません。

たとえば「download」ディレクトリの中に PDF ファイルを入れているなら、そのディレクトリを丸ごと拒否しておくとよいですね。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /download/

Sitemap: https://example.com/wp-sitemap.xml

このほか、XML サイトマップや他サイトからのリンクをたどって発見されることもあるので、非公開ファイルの取り扱いには気をつけましょう。

すでに検索インデックスに登録されている場合は、robots.txt ではなく .htaccess で noindex を指定します。クロールを拒否すると noindex が伝わらないので要注意。

<FilesMatch ".pdf$">
Header set X-Robots-Tag "noindex"
</FilesMatch>

設定ミスによるトラブルの実例

SEO 界の権威である辻氏が、robots.txt の設定ミスに関して X(Twitter) で実例を紹介していました。

設定を誤るとどのような症状になるのか、どこが間違っているのか参考になるので、ぜひチェックしておきましょう。

よくあるrobots.txtの誤りで、致命的なトラブルになる事もあるのにあまり知られていない仕様の紹介で連ツイート。
誤りは表に出ることが少ないので日本語で実例紹介を見たことが無いのですが、公共の面も持つサイトでの誤りを発見したので注意喚起意図で実例を紹介します。(続く

— 辻正浩 | Masahiro Tsuji (@tsuj) October 29, 2022

robots.txt まとめ

個人ブログで robots.txt を作成する必要はありませんが、もし編集するならミスのないよう細心の注意を払ってください。

robots.txt はだれでも見られますから、大手サイト・有名サイトのファイルをチェックしてみるのも面白いかもしれません。たとえば Google はいろいろ制御していますが、Yahoo! Japan はまったく制御していなかったりします。

SEO はいろいろ勉強することがあるので、少しずつ習得していきましょう。

WordPress

著者

SEO コンサルタント 瀬尾

瀬尾 真

SEO コンサルタント

Web 歴 20 年以上の SEO コンサルタント。ライティング業務ほか、サイト制作・コンテンツ販売・メディア運営代行業務を行っています。当サイト(セオリコ)では、おもにブログ初心者向けのノウハウを配信。

ココナラでは WordPress エラー修正やハッキング修復、Search Console 分析サービスをご提供しています(年間400件以上対応)。

X (Twitter)
ココナラ
マシュマロ
お問い合わせ

関連記事

  • ファイル移行
    WordPress 記事移行方法まとめ(一部の記事 / すべての記事)
  • WordPressがハッキングされた時の対処法
    WordPress がハッキングされたときの対処方法
  • UTF-8
    WordPressの文字コード(UTF-8)と改行コード(LF)
  • 最適な画像サイズは?
    WordPress で使う画像の推奨サイズ・形式・容量
  • WordPress の記事が消えてしまった原因と防止策・復旧方法解説
  • WordPress ファビコン設定方法
    WordPress サイトアイコン(ファビコン)設定方法と注意点
  • ハッキング
    WordPress がハッキングされた事例と実際に修復した手順
  • WordPress セキュリティ
    WordPress のセキュリティを強化する方法 10 選
  1. セオリコ
  2. WordPress
  3. WordPress「robots.txt」の設定例と作成方法
Category
  • ブログ運営法
  • ブログ収益化
  • SEO
  • Webデザイン
  • WordPress
  • PC
Service
  • ブログ個別サポート
  • Google AdSense 審査対策
  • WordPress エラー修復
  • Search Console 分析
WordPress Plugin
  • Link Map Insights
Information
  • ブログ用語集(ガイド)
  • お問い合わせ
  • サイトマップ
  • セオリコ運営者情報
  • コンテンツポリシー
  • プライバシーポリシー
  • X (@seoryco)

© seoryco.

  • お問い合わせ
  • サービス一覧
  • 検索
  • 目次
  • トップへ
目次