ミニウィキ

by ペコネットの編集部員

ユーザ用ツール

サイト用ツール


sites:robots

文書の過去の版を表示しています。


robots.txtについて

robots.txtは検索エンジンにサイトのURL(ディレクトリ・ファイル)の可不可を伝えるテキストファイルです。

Googleによる例

Googleのガイドによる記述例

User-agent: Googlebot
Disallow: /nogooglebot/

User-agent: *
Allow: /

Sitemap: https://www.example.com/sitemap.xml


このrobots.txt ファイルの説明

  1. Googlebot という名前のユーザー エージェントには、https://example.com/nogooglebot/ で始まるいかなる URL のクロールも許可していません。
  2. 他のすべてのユーザー エージェントには、サイト全体のクロールを許可しています。このルールは記載していなくても同じ結果になります。デフォルトの動作として、すべてのユーザー エージェントはサイト全体のクロールを許可されているためです。

概要

従って、以下の3つの要素から成り立つ。「ユーザーエージェント」「クロールを強化しないURLの指定」「サイトマップ」

  • User-Agent
  • Disallow
  • Sitemap
sites/robots.1730958146.txt.gz · 最終更新: 2024/11/07 14:42 by peconet