ウォーターサーバーとコーヒーマシンが一体化した画期的マシン >>

皆さん、はじめまして。早速ですが、本題に入らせていただきます。

保存先はページの豊富な解説サイトです。
TOPのアドレスをhttp://A/top/とすると、そこに http://A/zabieru/http://B/edo/

http://C/hideyoshi/などの別ページのリンクが数多くあります。

(1)GetHTMLWでWEBの保存を何度も試みましたが完全にできませんでした。
フォルダ上にファイルがダウンロードできてるが、TOPのリンクがフォルダのBとCにつながらなか

った。リンクに失敗した部分はhttpになっている。

(2)他のソフトを使っても同じ結果でした。

(3)設定で→「B」と「C」のURLを追加。

(4)失敗。

(5)検索したらhttp://blog.golfdigest.co.jp/user/murasan/archiv …のページで、

GetHTMLWでWEBの保存したときに別のアドレスだった場合は、加工しないと(リンクを直さないと)

いけないとかかれてました。
たしかに保存したWEBのソースを見ると、「A」がはhref="hideyoshi.htmlなのに対して、「B」

や「C」の部分はhref=http://B/hideyoshi/になっていました。

そこで質問ですが、一つ一つリンクを直すのはできればしたくないので、
他によい方法がありましたら、教えてください。
皆さん、よろしくお願いします。

このQ&Aに関連する最新のQ&A

A 回答 (4件)

ProxyMode2ではなくProxyModeで、かつ保存ではなく閲覧するのに使ってください。


べつにProxyMode2でもいいですが未取得のアドレスになると取得しにいこうとネットにつなごうとします。

見るときは保存されたファイルを直接見ようとするのではなく、gethtmlwを通してみるようにしてください。そうすれば相対アドレスだろうがgethtmlwがなんとかしてくれます。
    • good
    • 0
この回答へのお礼

MASA_Hさん、こんばんは。返信が遅れまして、申し訳ありません。

readmeと格闘すること数時間、ついに完璧に保存することができました。

IEの場合は、readmeより、
(1)インターネットオプション→「接続」タブ内の「LANの設定」ボタンを選択する。
(2)ローカルエリアネットワーク(LAN)の設定の「設定を自動的に検出する」のチェックをオンに、
「自動設定のスクリプトを使用する」のチェックをオンし、
(3)アドレス項目に C:\WINDOWS\proxycfg.pac で、できました。

Sleipnirの場合はプロクシに127.0.0.1:18080を追加して、選択でできました。
大変感謝しております。ありがとうございました。


P.S.proxymode、バグか設定ミスで、localmodeで見ようとしても繋がらなくて苦労しました。
そこでproxymode2でやったところできました。フォルダとgethtml.hifがキャッシュですね。
>>見るときは保存されたファイルを直接見ようとするのではなく...略。
以前やってできなかったのは、フォルダを直接開いてたからなのですね。

お礼日時:2006/08/09 23:27

>になる方法がもしあれば教えて


ありません。gethtmlは.プロキシサーバーですから.ローかねるかをしません。

市販品の中にローカル化をするソフトがあったかと思います。
    • good
    • 0
この回答へのお礼

こんばんは。回答ありがとうございました。
たぶんこの方法でリンクも完璧に保存できたと思います。

お礼日時:2006/08/09 23:29

>別ページのリンクが数多くあ


の内容は?。gif,jpg それてもhtml

>につながらなか
の意味は?。「何が」「何に」接続できなかったのか、それとも「参照」か

>によい方法が
度のようにするのが「よい」と判断するのか。

以上細く願います。

ご自身のサイトでしたらばftpで一括してdlするソフトがありますのでこちらを使ったほうがかんたんてしょう。
    • good
    • 0
この回答へのお礼

こんにちは。補足させていただきます。
(1)別ページですがhtmlです。
(2)フォルダ上では完全に取得できてるのですが、indexをブラウザで開いても、「A」のリンクは繋がるのですが、(file:///C:/Documents%20and%20Settings/***/デスクトップ/フォルダ/A/zabieru/に)、
「B」や「C」は http://B or C/edo/になっているという意味です。
(3)一つ一つリンクを直すのはできればしたくないので、完全に取得でき、リンクもきちんとfile://*****/
になる方法がもしあれば教えてくださいという意味で質問させていただきました。

よければお願いします。

お礼日時:2006/08/08 16:24

GetHTMLWには確かproxyモードがあったはずなので閲覧時にはそれを使ったらどうですか。

    • good
    • 0
この回答へのお礼

こんにちは。回答ありがとうございます。
早速proxymode2を試してみましたのですが、やはりフォルダにダウンロードされてるだけで、TOPのリンクはされず、残念です。

お礼日時:2006/08/08 16:04

このQ&Aに関連する人気のQ&A

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!

このQ&Aを見た人はこんなQ&Aも見ています

このQ&Aを見た人が検索しているワード

このQ&Aと関連する良く見られている質問

QGetHTMLWのソフトでネットサーフィンしたサイトの保存

GetHTMLWのソフトです。
2階層3階層を保存するとなると、時間がかかってしまうので、
ネットサーフィンで閲覧したサイトだけ保存したいと思っています。

「ネットサーフィン時に見たデータをすべて保存、オフライン後も再生」
と謳(うた)っています が、
その設定方法を教えてください。

Aベストアンサー

GetHTMLW での設定が、「オフライン後に再生」出きる状態になっているとして

GetHtmlWの右上、「_□X」の下のあたりをクリックすると、メニューが表示されます。メニューの中の
Proxy mode 2
をクリックしてください。

クリックしたところの表示が「Proxy mode 2(S)」に代わります。

見ているブラウザのURL欄に適当なアドレスを入力して、該当サイトを眺めてください。ディスクに「見たところだけ」ファイルとして貯まります。

なお、ディスクキャッシュに残っている場合は、保存されません。一部欠落が出るような場合には、ブラウザのキャッシュを全部消してから、再度起動して、該当アドレスを見てください。

Qネット上で公開されている小説などのダウンロードの方法を教えてください。

個人で運営されているサイトで公開されている自作の小説をダウンロードするにはどのようにすれば良いか、やり方を教えて下さい。

1.「ダウンロードして個人的に楽しむのはかまいません」と明記されているサイトですが、ダウンロード用の圧縮ファイルなどが用意されていない。

2.プラウザはOperaかIE5.5sp2を使用。(主にOperaを使っているので、出来ればそちらで出来る方が助かります。)


現在は『Opera』の「ファイル」→「画像ファイルを含め完全に保存」か、保存したい画面上で右クリック→「フレーム操作メニュー」→「名前をつけてフレームを保存」で保存しているのですが、サイトが閉鎖されて、ネット上からその小説が無くなっても、読むことができるか不安です。
最近いきなり閉鎖されたサイトがあり、読みかけの小説が読みきれなくて残念だったので、方法を教えて頂きたいのです。
よろしくお願いします。

Aベストアンサー

現在、行っている保存方法でOKです。
が、たくさん有ると保存するもの大変ですので、ソフトを
使用されてはいかがでしょうか?

GetHTMLW
http://hp.vector.co.jp/authors/VA014425/gethtmlw.html
など、今までにここでも紹介されているソフトがありますので
ご参考まで

QWebページを丸ごと保存する方法

お忙しい中、申し訳ございません。
WeboxやGetHTMLなどWebページを丸ごと保存しておけるソフトはありますが
どれも保存したパソコンからしか見られません。
保存したパソコン以外のパソコンからでも保存したWebページが見られるような
Windows98,XP対応のフリーソフトはありませんか。
宜しくお願い致します。

Aベストアンサー

HTTrackを起動

1.プロジェクト名を選択して「次へ」
2.「オプション設定」をクリック
3.「スキャンルール」タブをクリック
4.「リンクを含める」をクリック
5.「スキャンルールの追加」画面になります。
6.「フィルタのルール」の右のドロップダウンリストをクリック
7.「全てのリンク」を選択
8.「追加」ボタンをクリック
9.「OK」で「オプション設定」画面を閉じる
10メイン画面で「次へ」をクリックして「完了」をクリック

即、ダウンロードが開始されリンク先ファイルがハードディスクに保存されるようになります。

「基準フォルダ」(例えばProject01)に指定したフォルダを開くとProject01以下にリンク先URLをフォルダ名にしたフォルダが作成されファイルが保存されているのを確認してください。

HTMLファイルを開くとURL欄のリンク先が「HTTP」でなくハードディスク内のアドレス(例えば「C:\HTTrack\project01\blog.goo.ne.jp\index.html」)に変わっているはずです。

HTTrackを起動

1.プロジェクト名を選択して「次へ」
2.「オプション設定」をクリック
3.「スキャンルール」タブをクリック
4.「リンクを含める」をクリック
5.「スキャンルールの追加」画面になります。
6.「フィルタのルール」の右のドロップダウンリストをクリック
7.「全てのリンク」を選択
8.「追加」ボタンをクリック
9.「OK」で「オプション設定」画面を閉じる
10メイン画面で「次へ」をクリックして「完了」をクリック

即、ダウンロードが開始されリンク先ファイルがハ...続きを読む

QGetHTMLWの使い方

GetHTMLW GUI版 最新のものを使っています。
とあるサイトのDLがうまくいかず、困っています。よろしければ、お力添え頂ければと思います。

落としたいデータは、zipファイル、rarファイル込みです。
サイト構成は、indexのみhtmlファイル、以降のリンクはphpファイルになっています。

取得条件の拡張子の記述は
0:.(arc|gz|exe|zoo|hqx|cab)$ .z$
0:.(aif|au$|ra|wav|mp|mov|avi$|pdf$)
#0:.(mid|jp[eg]|gif$|bmp$|[px]bm$)
2:.zip$
2:.rar$
2:.lzh$

で行っています。
あるいは、取得条件の拡張子のチェックを外して試してみています。

が、どちらもうまくDLが出来ません。

GetHTMLW以外に、flashgetなども試してみましたが、右クリックでのDLなど出来ないようです。
ファイルが多数あるサイト(海外)なので、ひとつひとつ落とすと非常に時間がかかってしまいます。
ご協力、よろしくお願いします。

↓落としたいサイトです。
beewitched.fairywitch.net

GetHTMLW GUI版 最新のものを使っています。
とあるサイトのDLがうまくいかず、困っています。よろしければ、お力添え頂ければと思います。

落としたいデータは、zipファイル、rarファイル込みです。
サイト構成は、indexのみhtmlファイル、以降のリンクはphpファイルになっています。

取得条件の拡張子の記述は
0:.(arc|gz|exe|zoo|hqx|cab)$ .z$
0:.(aif|au$|ra|wav|mp|mov|avi$|pdf$)
#0:.(mid|jp[eg]|gif$|bmp$|[px]bm$)
2:.zip$
2:.rar$
2:.lzh$

で行っています。
あるいは、取得条件の拡...続きを読む

Aベストアンサー

単体では無理です。Win機の場合には
Proxomitronの
User-Agentフィルター
を変更して、IE等の普通に使われているブラウザにしてください。

Qwebページをリンクまで含めて保存できるソフトはありますか。

webページを、深いリンク先まで含めて保存できるソフトはありますか。
オフラインで保存したリンクを含めたwebページを後で確認したいんです。
なるべく操作のわかりやすいソフトがいいです。
ご存知でいらっしゃる方ご紹介ください。
その際、ダウンロードサイトや、tipsサイトも載せてくれると助かります。どうかお願いいたします。

Aベストアンサー

Webサイトをローカルに保存するのなら、
私にはこのソフトが一番良かったです。

巡集(Web巡回収集ソフト)
http://www.apple.cx/~tr26/junshu/


このソフトが合わなければ、
似たようなソフトがVectorの「Web自動巡回」カテゴリにあるので
良さそうなのを探してみてください。
http://www.vector.co.jp/vpack/filearea/win95/net/www/auto/

参考URL:http://www.apple.cx/~tr26/junshu/

Qホームページ丸ごと保存ソフトでオススメを教えてください。

アイ・フォーのインターネットNINJAという
ソフトを買っていたのですが使いづらく困りました。
市販でもフリーソフトでもいいので
直感的にホームページを丸々ローカル保存でき
保存後の管理が簡単なソフトは無いでしょうか?

Aベストアンサー

WeBoxをオススメします。私も以前、このコーナーで教えていただいたのですが、なんでもスクラップブック的に溜め込め、さらにテキストデータも保存できるので、とても重宝しています。

他に同様のソフとで「紙2001」と「WebCatcher」というのがあり、すべて試用してみたのですが、私の用途にはWeBoxが一番合っていました。

■WeBox  フリー
http://www.vector.co.jp/magazine/softnews/021211/n0212111.html

■紙2001  フリー/シエア
http://www.ki.rim.or.jp/~kami/

■WebCatcher  シエア
http://www.softchina.co.jp/d-tools/products/webcatcher.html

QWindows 7で使えるWebページ保存ソフト

Windows 7で使えるWebページ保存ソフトを探しています。

キャプチャして画像データとして保存する形式のものではなく
リンク情報なども含めてWebページをそのまま保存できるソフトが理想です。

窓の杜 - Website Explorer
http://www.forest.impress.co.jp/lib/inet/websupt/webpilot/websiteexp.html

このように階層形式で保存できるものが良いですが
単純に後でオフラインで見ることができれば事足ります。

なかなかWindows 7で使えるものが見つからず困っています。
どうぞよろしくお願い致します。

Aベストアンサー

Firefoxのver4.0では、アドオンのScrapbookで、リンクの下層まど保存でき、エクスポートでバックアップも可能です。
カスタマイズでの拡張子の指定で、フラッシュなども保存可能になっています。
http://amb.vis.ne.jp/mozilla/scrapbook/?lang=ja

IEでできない機能をアドオンで付与することができますから、入れおいて損はないブラウザですが。

QWEBサイトを階層を保ったままPC保存するには?

WEBサイトを閉鎖されてからも閲覧できるようにローカルで保存できるソフトや方法はないのでしょうか。
出来れば、インターネットエクスプローラーで閲覧しているように表示されると助かります。

以前、「GetHTMLW」「webox」「巡集」「紙copi」を試してみましたが上手く階層通りに表示されず途中で見られなくなってしまいました。

宜しくお願いします。

Aベストアンサー

ブラウザーにFirefoxを使用し、アドオンのScrapBookがおすすめです。

http://weekly.ascii.jp/elem/000/000/021/21648/

Q階層以下をそのまま保存するには(GetHTMLW)

「世界一受けたい授業」のサイトをオフラインでも見れるように、保存しようと思って、GetHTMLWで何とかならないかと格闘しています。
http://www.ntv.co.jp/sekaju/
のサイト以下の階層だけ(もっといえば、その下のbacknumberフォルダ以下)だけでいいので、保存したいと思うのですが、設定方法がよく分かりません。
他のドメインやsekajuディレクトリより上へのリンクは保存せずに、できるだけ、サイト作成者がftpでアップする前のような状態で保存できないものでしょうか。
ご教授いただければ幸いです。

Aベストアンサー

こちらは如何ですか
http://www.vector.co.jp/soft/win95/net/se314781.html

QParse error: syntax error, unexpected T_STRING in・・・118と出るのですが

Parse error: syntax error, unexpected T_STRING in 。。。 on line 118
とでるのですが対処はどうすればよろしいでしょうか?

Aベストアンサー

118行目をみてみてください。
ダブルクォーテーションのなかでダブルクォーテーションを使ったり
してませんか?
基本的な文法ミスなので、自己解決できないと今後きびしいですよ。


人気Q&Aランキング