ホームページをまるまるダウンロードしたいんですが、いくつかダウンロードのソフトを使ってみたものの、URLが記述されていないファイルや、イベントの結果として呼び出されるようなファイルまで落とすことができません。

URLを指定すると、その下位にあるすべてのファイル (ディレクトリも含む) をダウンロードできるソフトがありましたら、紹介してください。有料のソフトでも構いません。

このQ&Aに関連する最新のQ&A

A 回答 (5件)

過去に別の場所で同様の質問があった時、色々な回答がありましたがまとめれば以下のような内容でした。

ご参考まで。

「真っ当なダウンロードソフト」ではそういった機能を持つものはまず無いと思います。
サーバーに何と言う名前のファイルがあるかを見たりファイルをダウンロードしたりするためには、FTPでログインする等の「権限」を持っている必要があります。そして普通はその権限は管理者にしか与えられません。

※何らかの方法を使用して「権限」を得て無理矢理ログインすると不正アクセス禁止法にひっかかりますので止めておきましょう。
権限が必要なく簡単にログインできるサーバーもありますけれど、その場合は禁止法にひっかからないと思いますが保証しません。

参考URL:http://www.npa.go.jp/hightech/fusei_ac1/gaiyou.htm
    • good
    • 0
この回答へのお礼

やっぱりそうですか。
実は H@ck しちゃる!って考えていたのですが、ご助言を素直に聞き入れ、真っ当にネットを楽しむことにします。
とりあえず JavaScript で書かれたリンク先は、簡単な自作プログラムと組み合わせて Get するようにしました。
どうもありがとうございます。

お礼日時:2001/06/14 08:43

「iria」は最近使用してないので詳細を忘れましたが、以下の「ReGet」も同様でしょうか・・・?



設定によっては目的のURLを右クリックすると「ReGetで全てをダウンロード」を選択することで可能ではないでしょうか?

外しているかもしれませんが・・・・?

ご参考まで。

参考URL:http://deluxe.reget.com/?l=jp%3f
    • good
    • 0
この回答へのお礼

ありがとうございます。
ReGet は使ったことがあるのですが、[ReGet で全てをダウンロード] でもダメでした。

お礼日時:2001/06/12 11:10

下記URLのものは如何でしょう。


私も使わせて頂いていますが中々優秀ですよ。(^^

参考URL:http://www.vector.co.jp/vpack/browse/pickup/pw3/ …
    • good
    • 0
この回答へのお礼

ありがとうございます。
PageDown は使ったことがあるのですが、うまくいきませんでした。

お礼日時:2001/06/12 11:09

 インターネットエクスプローラーで、「お気に入り」に登録したのち→そのサイトを右クリック→「オフラインで使用する」は駄目でしょうか。

この回答への補足

質問の仕方が悪かったです。すみません。
やりたいことは、ホームページのまるごと自動取得です。できれば、Web 上では表示されないもののファイルは存在する、ってのまで落としたいです。
自動巡回ソフトや Iria などのダウンローダーでは、記述されたリンクを辿ってダウンロードを行っていると思うのですが、これだと、例えば JavaScript で記述されたリンク先 (マウスが触れると画像を変えたりコンボボックスの選択でページを移動したり...) を自動又は一括して取得することができません。できるのかもしれませんが、少なくともやり方がわかりません。(^_^;)
FTP ツールのようにアドレス下のディレクトリやファイルを根こそぎ落とせるようなツールがあれば、と思いまして質問させていただきました。
よろしくお願いします。

補足日時:2001/06/11 14:24
    • good
    • 0
この回答へのお礼

そういう機能があることは知ってましたが、実際使ったのははじめてでした。IE だけでも結構いけますね!
今回の件では解決できなかったものの、今後いろいろと役立ちそうです。
ありがとうございます。

お礼日時:2001/06/14 08:42

はじめまして、uutotora2です。


アイフォーのINTER NET Ninja は
階層制限なしに ダウンロードして
オフラインで閲覧できます。
では

この回答への補足

ご紹介ありがとうございます。
体験版を使ってみましたが、不慣れなためかうまくいきませんでした。
もうちょっといろいろ試してみますが、やりたいことは ANo.#2 補足の通りですので、もしよろしければインターネットNinja でのやり方を教えてください。

なお、私は web technology の Getweb! というソフトを使っていますが、これでは今のところできない (やり方がわからない) です。

補足日時:2001/06/11 14:17
    • good
    • 0

このQ&Aに関連する人気のQ&A

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人が検索しているワード

このQ&Aと関連する良く見られている質問

QダウンロードソフトのURLコピーについて

今僕はREGETとIriaを使っています。それで、Iriaが最近調子悪くて、Iriaに登録したURLを、REGETに移行して、これからはしばらくREGETでダウンロードしようと思っています。それでコピーする時、Iriaでコピーして、REGETにURLを貼り付けています。今は1つをコピーして、1つ貼り付けという風にすごくめんどくさいことをやっているのですが、全部、又は複数をまとめてコピー、貼り付けできる方法があるなら教えてください。どなたかよろしくお願いします。

Aベストアンサー

たくさん選んでから、ファイルリストの出力はできないでしょうか。
もしくは、ファイルリストのエクスポートという項目はないででしょうか。

左上のファイルメニューの中にあるとおもうのですが、regetは最近使っていないので詳細を忘れてしまいました。

そしてできたファイルをiriaでインポートすればOKです。

QGetHTMLW url以下のファイルをダウンロードするには

こんにちは、
GetHTMLW ver.8.1.1を使っています。
このURL以下のファイルを取得したいとします。
http://www.mdn.co.jp/webcre/Flash/
(例えば、http://www.mdn.co.jp/webcre/Flash/vol80/FlashCT.lzh
みたいにvol1から複数存在)
ただし、
http://www.mdn.co.jp/webcre/Flash/
をブラウザで見ると、「HTTP 403 アクセス不可」になります。
http://www.mdn.co.jp/webcre/Flash/vol80/FlashCT.lzhでは取得できます。
このようなケースで、GetHTMLW ver.8.1.1でどういう条件にすれば、
取得できますか?また、その他うまくダウンロードする方法があれば教えてください。
(WebCreatorは3年程定期購読していてまとめてダウンロードしたいと考えました。)

何かお分かりでしたらアドバイスお願いします。

Aベストアンサー

意味がわからなかったらば、他の回答を優先して下さい。
1.自サバを構築する
2.自サバから関係ファイルを直リンする
3.自サバをGetHtmlWでDLする。許容URLの指定を忘れずに
4.地球病にかかっていたらリファラーを変更するオミトロンのフィルターを使用する

ただ、以上のような面倒なことをするよりも、ファイルリストを読み取れるダウンローター(というと2種類しかありませんけど)を使ったほうが早いです。

QURLがCGIのファイルをダウンロードできない

アーバインで、URLがhttp://~.cgi?××=○○
のようなファイルを落とそうとしたら、
「5秒待機」が続いて、ぜんぜんダウンロードできません。
直接、URLをブラウザに入れると落ちてくるのですが、
どうすればアーバインでダウンロードできるでしょう?

Aベストアンサー

サイトの方でダウンロードの抑制がかかっていませんか。ダウンロードツールを使われるとサーバが落ちたり、料金が高くなったりするので、管理者が対策しているところもたくさんあります。

Qダウンロードが終えるごとにダウンロードの指示はめんどくさい。登録すると勝手にダウンロードしてくれるソフトありませんか?

いっぱい一気にダウンロードをするとパソコンがおそくなります。かといって、ひとつのダウンロードが終えるごとにまたダウンロードの指示はめんどくさいです。登録すると勝手に次から次にダウンロードしてくれるフリーソフトありませんか?

Aベストアンサー

http://okwave.jp/kotaeru.php3?q=2236000
のNo.1さんも指摘しておられますが…マニュアルをきちんと読まれた方がいいですね。大概のダウンロード支援ソフトには同時に実行する最大ダウンロード数を設定する機能が付いています。その設定を例えば"1"にすれば、同時に2つのものをダウンロードすることはなくなります。と同時に、次々とジョブを追加して行けば一つが終わるごとに次のものを自動的に実行するようになります。

Q手書きのURLリストをダウンロードしてくれるソフトは?

cgiを使ったページを収集したいのですが、Vectorでいいのを探せなかったものでご存知の方に教えて欲しいです。過去数年分のデータがあるページで、URLはエクセルで作成できるのですが、それを読み込んでダウンロードしてくれるソフトウェアが見つかりません。よいものをご存知の方教えてください。

Aベストアンサー

初めまして。どのように収集したいのかよくわかりませんが、urlのファイルをそのまま保存するだけならiriaというソフトで"編集→urlを貼り付け"とやれば行ける気がします。1000件とか一気にやるとさすがにフリーズしますが。

階層を追って追跡して保存したいというのであれば、GethtmlwなどでURlをひとつずつやるのがいいんじゃないでしょうか。ソフトはどちらもxpで問題なく使えます。

http://www.vector.co.jp/soft/win95/net/se161790.html iria
http://www.vector.co.jp/soft/win95/net/se077066.html gethtmlw


人気Q&Aランキング

おすすめ情報