電子書籍の厳選無料作品が豊富!

SEOサイトを参考にしてsitemap.xmlとrobots.txtはあった方が良いことが書かれていたので作成しました。robots.txtの中にsitemap.xmlの記述があることから両社は密接な関係があると思います。

ただ、私がよく理解できないのがクローラーのことです。sitemap.xmlだけでもクローラーが読み込んでくれているのでしょうか?

多分、sitemap.xmlだけでは無意味でrobots.txtとセットでないとダメな気がしていますが、いまいち良く分かっていません。ご指導よろしくお願いします。

A 回答 (1件)

googleクローラがsitemap.xmlを見つけて呉れれば良いのだけれど、黙っていると中々見つけてくれない。



方法は2つ。
1.robots.txtの中にsitemap.xmlをフルパスで書いておく。

2.sitemapをgoogleに送信して置く。
サーチコンソール画面から送信できる。
1度送信して置けば、後はいつも見てくれる。
こちらの方法がメジャーで、こうすれば1.は不要。
また、xmlにする必要はなく、txtファイルとして中身をページのurlをフルパスで書いて、羅列して置けば良く、手っ取り早い。
http://www.abc.com/
http://www.abc.com/top.html


必要なだけ並べる。

サイトはサーチコンソールへ登録して管理しよう!
    • good
    • 0
この回答へのお礼

早速のご返答ありがとうございます。サーチコンソールから送信しておけばrobots.txtは不要だったんですね。これですっきりとした感じがします。

お礼日時:2016/11/12 15:43

お探しのQ&Aが見つからない時は、教えて!gooで質問しましょう!