性格悪い人が優勝

はじめまして。
.htaccessを使ったユーザ認証をしています。

検索ロボットのアクセス制限(UA制限)
IPによるアクセス制限も同時に行いたいのですが、可能でしょうか。

一度下記のように記述してみたのですが駄目でした。
元からできないものなのでしょうか。
それとも記述がいけないのでしょうか。
ご助言よろしくお願いします。

#.htaccess閲覧防止
AddHandler cgi-script htaccess

#認証
AuthType Basic
AuthName "Secret Page"
AuthUserFile /www/data/●●/public_html/●●/.htpasswd
require valid-user

# ユーザーエージェントで指定
SetEnvIfNoCase User-Agent "msnbot" shutout
SetEnvIfNoCase User-Agent "Googlebot" shutout
SetEnvIfNoCase User-Agent "Slurp" shutout
SetEnvIfNoCase User-Agent "Yahoo" shutout
SetEnvIfNoCase User-Agent "Y!J" shutout
以下略

A 回答 (2件)

追加です。


そもそもhtaccessは使える状態なのでしょうか?

簡単な.htaccessを書いてテストしてどうでしょう。
Reidrect permanent / http://www.google.com/

おそらく利用されているのはApacheですよね。
Apacheのconfigファイルの以下の記述はどうでしょうか?

Options +ExecCGI←ExecCGI記述はありますか。
AllowOverride All←Noneではないですよね。
    • good
    • 0

ぱっと見ですが、認証に以下の記述がありませんが


無くても動くんでしょうか。
AuthGroupFile /dev/null

あと以下略に、下の記述はありますか?
order Allow,Deny
Allow from all
Deny from env=shutout

あとそもそもですがrobot.txtをサイトルートに置けば、
インデックスは避けれますよ?
User-Agent: *
Disallow: /
    • good
    • 0
この回答へのお礼

どうもありがとうございます。

既にユーザ認証はできている状態です。
アクセス制限の機能を追加したかったのです。
robot.txtを置いてあり、念の為にメタタグを入れています。

>AuthGroupFile /dev/null
記述していなかったので追加しました。
>Apacheのconfigファイル
こちらがわからないので勉強してきます。
不勉強で申し訳ありません。

お礼日時:2009/04/21 20:55

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!