Google Search Consoleにサイトマップが登録できないときの対処(4/18 解決)

Github Pagesでブログを作った際,Googleの検索結果にヒットさせるには,Google Search Consoleにサイトを登録する必要があります.その際,サイトマップを作成して登録するのですが,それが認識されなかったのでメモしておきます.

Hexoでのサイトマップの作成,登録手順については以下のリンクなどをご覧ください.

Hexoでsitemap.xmlを生成


現状

このように「サイトマップを読み込めませんでした」とだけ表示され,どういう原因なのかが全くわかりません.

なお,サイトマップにはしっかりアクセスできます.
こちら


対処

別のライブラリに変えてみる

hexo-generator-sitemapでなく,上の記事でも紹介されている hexo-generator-seo-friendly-sitemapをインストールして,それで作成したsitemap.xmlを登録して見ても変化なし.この時作成されるpost-sitemap.xmlなどのサブセットも登録してみても変わらず.


別の形式で作ってみる

Google検索セントラルのサイトマップの作成と送信によると,サイトマップの形式としてxmlファイルの他にtxtファイルも認められるとのこと.
形式は至ってシンプルで以下のようにウェブページのURLを羅列するだけ.


https://hn410.github.io/ https://hn410.github.io/2022/01/09/memo/TexLiveShellError/ https://hn410.github.io/2022/01/09/univ/CPUExp1/ https://hn410.github.io/2022/01/08/univ/CPUExpChange/ https://hn410.github.io/2021/12/23/deepL/20211223/ https://hn410.github.io/2022/01/09/play/BrainF15/ https://hn410.github.io/2021/12/19/deepL/20211219/

とりあえずテストとしていくつかのウェブページを羅列したtxtファイルをアップロードし,それを登録…が,駄目っ!.変わらず…!


robots.txtに不備がないか

とにかく,そもそもクローラが私のウェブページに到達していないことがなんとなく推測されます.
ということなので,robots.txtに不備がないことを確かめます.Search Consoleのヘルプにrobots.txt テスターで robots.txt をテストするというページがあり,そこからrobots.txtがGoogleのクローラをブロックする設定担っていないかを確かめられます.

これでGoogleのクローラがブロックされているかを確かめてみますが…全部OKでした.まあ,そうですよね….

とりあえずの結論

こちらによると,どうやら日がたてば状況が改善されることもあるみたいなので,とりあえず待ってみます.それまでこの備忘録も検索結果に載らないままです(悲C).

解決 (4/18追記)

海外のサイト等も含めて情報を漁ったところ,sitemapをgoogleに提出するもう一つの方法があるとのこと.それが,以下のURLの[サイトマップのURL]を自分のブログのサイトマップのURLにして,そこにアクセスするというもの.

https://www.google.com/ping?sitemap=[サイトマップのURL]

これを行って約半月後に

ようやくやりました.まだページ全体が検索結果に載っている訳ではありませんが,後々載ることでしょう.これでようやくこの記事も日の目を見ます.