許せない心理テスト

ホームページ巡回ソフトを探しているのですが
以下のような機能を持ち合わせているものはありますでしょうか。

・あらかじめ巡回するURLをテキストファイルに記述しておいて
 それに従って巡回して別ファイルに保存する。(html or txt)
・できればテキストファイルからではなく、連番部分を定義して
 その定義から自分でURLを生成しながら巡回する。
 (http://www.test0001.comhttp://www.test0002.com→・・・といった感じ)
・画像、リンク先保存、ローカルで見るためのリンクURL置換えなどは一切必要ない。(持っていなくてもいいし、OFFにできるものでもいい)
 指定したページのテキスト情報のみを高速にダウンロードする。
・URL一つ一つに1ファイルでもいいし、1つのファイルに追記方式でテキストを次々と追加していく形でもOK
・フリー、もしくは試用期間付きのシェアウェア
 (ただし機能制限中でも今回の機能が実現できる)
・巡回するページはJavaやフラッシュが使われているものではない。

心当たりがあれば教えていただけると助かります。
以上、よろしくお願いいたします。

A 回答 (2件)

自分ならfirefoxで


urlリストのテキストをbookmarkに変換するものを作成し取込み
フォルダをタブで開く
で全オープン おわり
かな。

というか巡回用のフォルダを作ってブックマークを移して行くだけで巡回するときはフォルダをタブで開けば良いだけだからリスト作る方が手間
    • good
    • 0
この回答へのお礼

ダウンロードしたいページは何百万とあるので一度にオープンするのは
厳しいのかなと思っています。HDD容量はたくさんあるのですが、
メモリはそれほど積んでいないので...

できればテキストやツールで直接ファイルへと落とせるツール、コマンドを探しています。
ファイルもURLファイルではなくテキストファイルとなるなら1ファイル
あたりのサイズが減るので非常にいいと思っています。

お礼日時:2007/05/19 00:24

簡単なところで



wget -r -nc -i file

とか?(まぁ連番は予めスクリプトで生成するとして。)

(以下どうでもいいこと)
昔はダイアルアップ回線だったから Web サイトの巡回ソフトもそれなりに需要があったけど最近はめっきりですね。

いまだに使うのは、何かのマニュアルが Webサイトにしかなくて、しかも PDF 形式でズラズラ載せてあるようなケースくらいかなぁ。
    • good
    • 0
この回答へのお礼

回答ありがとうございます。
コマンドベースでもWebページダウンロードはできるんですね。
早速http://members.at.infoseek.co.jp/futora/wget153/から
ダウンロードして使ってみました。
wget http://www.yahoo.co.jpやwget http://www.google.com
であればうまく保存できるのですが私が保存したいのは
情報がデータベース化されたホームページで
http://www.database.com/infoid?search=12345
http://www.database.com/infoid?search=12346
といったようなURLアドレスになり、こういったものをダウンロード
しようとするとinfoid?search=12345: Invalid argument
と表示されてダウンロードが正常に行われません。
今回のような多少特殊なアドレスの場合、どのようにすればよいか
分かりますでしょうか。よろしくお願いいたします。

お礼日時:2007/05/19 00:20

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!


おすすめ情報