電子書籍の厳選無料作品が豊富!

共有SSLでのクロール拒否
レンタルサーバー(chicappa)で、お問い合わせ等の一部のページで共有SSLを使用しています。
同じhtmlファイルですが、共有SSL(https://~)の方をrobots.txtでクロールを拒否すると、通常(http://~)の方も拒否されることになるのでしょうか。
つまりhttps://secure~.jp/sample.htmlをrobots.txtで拒否する設定をすると、http://~.jp/sample.htmlも拒否になりますか?
両方ともhtmlファイルは同じです。

A 回答 (1件)

本当にrobots.txtがSSLレベルで拒否出来ますか? 共有ですよね・・・


robots.txtはルートディレクトリでしか適応されないですよ。
つまり、https://secure~.jp/のルートにrobots.txtを置けるのでしょうか?
ディレクトリに置いてもそのドメイン経由であれば拒否されますが、
共有のSSL経由は拒否出来ないはず。どこからrobots.txtを適応させるかが問題。

仮にSSLレベルで拒否出来ているなら、
両方とも同じサブドメインで、ディレクトリが1つだとしたら、
SSL無しの初期ドメインのルートにもrobots.txtを設置するか、metaで拒否する。

SSLルートで検索拒否出来ていて、初期ドメイン経由も拒否したいなら
初期ドメインのルートにもrobots.txtを設置。
SSLルートで検索拒否出来ていて、独自ドメイン経由も拒否したいなら
独自ドメインのルートにも同じrobots.txtを設定。


.htaccessも利用するとか、「検索避け」で要検索。
    • good
    • 0
この回答へのお礼

httpsはアドレスを割り当てられるだけなので、ルートにrobots.txtはおけないのです。
分かりやすいご回答ありがとうございました。

お礼日時:2010/05/05 11:19

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!