プロが教えるわが家の防犯対策術!

大量のwebページをローカルに保存したいと考えています。
(サイトまるごとダウンロードとはイメージが違います。URLは1つ1つこちらで指定したいです。)

イメージとしては、
テキストファイルに複数のURLを記述して
ソフトを実行すると、指定のフォルダにファイルが保存されている。みたいなカンジです。

その時の保存されるファイル形式は、
アーカイブ化されたMHTMLが理想です。
画像・JS・CSSも一気に落とせるのなら、
HTMLでも構いません。

このようなことを
実現するためのソフト(有料でも可)がありましたら、
教えてください。

なお、
キャプチャーソフトは結構です。

よろしくお願いいたします。

A 回答 (2件)

    • good
    • 0
この回答へのお礼

ご回答ありがとうございます。
使用させて頂きました。
テキストから読み込んで実行できるところはイメージどおりです。

ただ、ルートから書かれたファイルやJSに書かれたファイルなどがダウンロードできていないようですので、ユーザーに見えている通りでの保存が出来ないようです。

質問では触れておりませんで申し訳ないのですが、
「現状ユーザーに見えている通りにサイトを保存したい」
というのが要望です。

お礼日時:2007/01/16 10:27

微妙に趣旨が違うと思いますけど、


http://www.itmedia.co.jp/bizid/articles/0608/11/ …
http://cres.s28.xrea.com/soft/babaroa.html
とか。

うーん、見つかりませんね…。
    • good
    • 0
この回答へのお礼

ご回答ありがとうございます。
拝見しましたが求めている機能ではないです。

お礼日時:2007/01/16 10:12

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!