baiduspider と robots.txt と .htaccess
- 投稿日 : 2008-04-08, 22:21
- 最終更新日時 : 2010-12-21 17:37:18(履歴)
- タグ(htaccess / robots.txt)
- カテゴリ(Weblog)
- 記し人(luvsic)[PDF]
- 閲覧数(2422)
最近こなくなったので。
設定がよかったのかしら。
百度側の記事で「robots.txt」でDisallowしてくれればクロールしないよ、と言ってて、そのように記述。
User-agent: baiduspider
Disallow: /
User-agent: baiduimagespider
Disallow: /
次のコードを.htaccessへ。
<Files robots.txt>
Allow from all
</Files>
これはよくわからないけど「robots.txtだけは誰でも読ませる」という設定らしい。.htaccessで全拒否、つまりrobots.txtを読ませない設定だと百度クローラーは「robots.txt読めないからとりあえず全部アクセスしてみるね」ってことっぽい。
考えてみるとつじつまが合うなぁ・・・
しばらくこれで様子見。
No comments yet