sites:robots
文書の過去の版を表示しています。
robots.txtについて
robots.txtは検索エンジンにサイトのURL(ディレクトリ・ファイル)の可不可を伝えるテキストファイルです。
Googleによる例
Googleのガイドによる記述例
User-agent: Googlebot Disallow: /nogooglebot/ User-agent: * Allow: / Sitemap: https://www.example.com/sitemap.xml
この robots.txt の説明
- Googlebot という名前のユーザー エージェントには、https://example.com/nogooglebot/ で始まるいかなる URL のクロールも許可していません。
- 他のすべてのユーザー エージェントには、サイト全体のクロールを許可しています。このルールは記載していなくても同じ結果になります。デフォルトの動作として、すべてのユーザー エージェントはサイト全体のクロールを許可されているためです。
概要
従って「ユーザーエージェント」「クロールを許可しないURLの指定」「サイトマップ」の記述をする。
- User-Agent
- Disallow
- Sitemap
User-Agent
ユーザーエージェントは基本的に「*」すべてのクローラーを指定。
Disallow
クロールしてほしくないURLを指定。
Sitemap
サイトマップのURLを記述。
上記を踏まえた例
User-agent: * Disallow: /example/ Sitemap: https://www.example.com/sitemap.xml
sites/robots.1730958796.txt.gz · 最終更新: 2024/11/07 14:53 by peconet