robots.txtの設定ミスで検索順位が急落?クローラーを正しく制御する方法

robots.txtの設定ミスで検索順位が急落?クローラーを正しく制御する方法
C
クリオ
Web制作ディレクター / フロントエンジニア

こんにちは!

今日は「robots.txtの設定ミスで検索順位が急落?クローラーを正しく制御する方法」について解説します。

robots.txtの設定ミスあるあると現場での失敗談

僕も昔、クライアントから「検索結果に表示されてない」って言われたことがあります。
調べてみたら、robots.txtで重要なページまでDisallowしちゃってたんですよ。
ほんま恥ずかしい思い出です。

robots.txtって、クローラーに対してサイトのどのページを訪問してほしいか、どの部分は避けてほしいかを指示するファイルです。
でもこの設定がもし間違ってたら、検索エンジンが大事なページにたどり着けなくなって、検索順位が落ちてしまうんですよ。

現場でよく見るのは、こんなパターンです:

  • テスト環境のDisallow: /をそのまま本番環境にアップしちゃった
  • 新しいディレクトリを作った時、ついでにDisallowを追加して忘れたまま
  • 管理画面パスを隠すつもりで、大事なフォルダまで制限しちゃった
  • robots.txtのシンタックスエラーで、全体の指示が無視されてた

怖いですよね。
でも安心してください。
正しい書き方を理解すれば、こういった失敗は防げます。

robots.txtの正しい書き方と基本ルール

robots.txtはドメイン直下の /robots.txtに配置します。
例えばhttps://example.com/robots.txtみたいな感じですね。

基本的な構文はシンプルです。
見てみましょう:

User-agent: * は「すべてのクローラーに対して以下のルールを適用する」という意味です。
もし特定のクローラーだけに指示したい場合は、User-agent: Googlebotみたいに書くこともできます。

Disallow: /は「このパス以下のすべてのページをクローラーが訪問しないようにする」という意味です。
例えばDisallow: /admin/だったら、管理ページへのアクセスはブロックしますよ。

Allow:Disallowの例外を指定します。
例えばDisallow: /user/で全体をブロックしつつ、Allow: /user/profile/で特定のページだけ許可する、みたいな細かい制御ができます。

Crawl-delay:はクローラーの訪問間隔を調整するルールです。
サーバーに負荷がかかってる場合に有効です。
ただし、Googleはこれを無視することもあるので、過信しないでくださいね。

よくある勘違いと実践的な設定例

よくある勘違いとして、「robots.txtで設定したら、Googleアナリティクスから除外できる」と思ってる人がいます。
それは違うんです。
robots.txtはクローラーを制御するだけで、ユーザーのアクセス除外は別の方法が必要です。

実践的な設定例を紹介しますね。
まず、ほとんどのサイトが使う基本的なパターンです:

User-agent: *
Disallow: /admin/
Disallow: /temp/
Disallow: /*.pdf$
Disallow: /*?*

このパターンは、管理ページと一時ファイルをブロックして、PDFファイルもクローラーに読ませず、クエリパラメータ付きのページもブロックします。
めっちゃ実用的です。

次に、ECサイトでよく使うパターン:

User-agent: *
Disallow: /cart/
Disallow: /checkout/
Disallow: /user-account/
Allow: /user-account/profile/
Crawl-delay: 1

これは、ショッピングカートや決済画面はブロックしつつ、プロフィールページは許可して、クローラーの訪問間隔を1秒に調整します。

Google Search Consoleで検証する方法

設定したら、本当に大丈夫か検証する必要があります。
Google Search Consoleの「robots.txtテスター」がめっちゃ便利ですよ。

手順はこんな感じです:

  1. Google Search Consoleにログイン
  2. 左メニューの「クローラー」から「robots.txtテスター」をクリック
  3. テストしたいURLを入力
  4. 「テスト」ボタンをクリック

すると、そのURLがクローラーから見てブロックされてるのか、許可されてるのかが一目瞭然です。
「許可されています」と出たら成功。
「ブロックされています」と出たら、設定を見直す必要があります。

僕もこれで何回も助かってます。
設定変更したら、必ずこのテスターで確認するといいですよ。

まとめ

robots.txtは一見シンプルに見えますが、設定ミスがあると検索流入に大きな影響を与えます。
だからこそ、正しく理解して、定期的に検証することが大事なんです。

ポイントをおさらいすると:

  • robots.txtは/robots.txtに配置する
  • User-agentで対象を指定し、Disallowで制限する
  • Allowで例外を作ることができる
  • Google Search Consoleのテスターで必ず検証する
  • 設定変更後も定期的に確認する習慣をつける

テクニカルSEOは地味な作業ですが、これがめっちゃ大事なんですよ。
みんなが見落とす部分だからこそ、丁寧に対応することで、他のサイトと差がつきます。

Web制作で困ったことがあったら、またこのブログを覗いてくださいね!

― クリオ