Search Consoleのインデックス登録の対象範囲のエラーと有効(警告あり)と有効と除外の四項目について 結城永人 - 2018年1月25日 (木) GoogleのSearch Consoleのデザインが刷新されてスマホ/タブレットのモバイル対応で表示されるようになった。僕はパソコンを使わないので、従来よりも遥かに見易いのが気に入っている。 新しい Search Console は、ゼロからの再構築となりました。これは、可能な限り実用性のあるインサイトをユーザーに提供し、それらに沿ったガイドを行うことで、あらゆる未解決の問題をユーザー自身が解決できるような相互に作用する問題解決モデルを構築するためです。社内のコラボレーションをシンプルにするために、ご自身の組織内でレポートを共有する機能も追加しました。 新しい Search Console をご紹介します|ウェブマスター向け公式ブログ|Google 使える機能はまだベータ版で十分に出揃ってないけど、しかし検索エンジンへのインデックスの状況が一覧表示されるようになったインデックス登録の対象範囲が便利だと感じる。得られるデータには有効(警告あり)という初めての項目も一つ含まれているんだ。従来の三項目と併せてどう使うべきかの見方を改めてしっかり覚えながら所有サイトの検索エンジンからのアクセスアップに繋げて行きたい。 インデックス登録の対象範囲の四項目 インデックス登録の対象範囲のレポート|Search Console|Google エラー有効(警告あり)有効除外 サイトが検索結果に出るための第一条件が検索エンジンへサイトの各ページのインデックスなので、不都合が生じてないかをいつでも注意深く確認しておかなくてはならない。 エラーはクローラーがサイト内容を読み込めない サーバーに支障があるとか検索エンジンのクローラーにかぎらず、通常でも閲覧できないような場合にエラーが表示され易い。 早急に対応しないと検索エンジンでのサイト評価が下がってアクセスを得られなくなってしまうから最も警戒するべき項目だろう。 Bloggerブログでは偶に起きる。サーバーが不調なのか、クローラーのアクセスが一時的に滞ってしまうせいみたいだ。いつも直ぐに回復するので、何もせずに待っているだけで特に問題はないし、エラーは消える。 有効(警告あり)は管理人の承認が不明確なインデックス 僕は初めて知って驚いた。些細な日常で数値が上がっている。従来のSearch Consoleでは分からなかったはずだ。 見直すとインデックスステータスの詳細の「インデックスに登録されたページの総数」から「ロボットによりブロック済み」を引けば導き出されるデータだったけれども項目自体が新たに追加されたんだ。 改めて有効(警告あり)という表示なので、焦りながら調べてみるとGoogleがrobots.txtの検索避けに反してインデックスを実行するせいだった。 些細な日常のラベルページはインデックスを拒否していたし、Bloggerブログの初期設定でブログ内の検索結果ページとラベルページにrobots.txtの検索避けがかかっているのを変更してない。 記事を他で重複して表示するベージにクローラーを回さないようにするとクロールバジェットを減らさずに済むという検索エンジンでのサイト解析を捗らせるなどの利点があるんだ。 しかしGoogleへの検索避けを完全にかける/クロールだけではなくてインデックスも確実に拒否するためにはページのHTMLにmetaタグのnoinexが必須だった。その場合は同時にrobots.txtを解除しておかないとクローラーにmetaタグのnoindexが無視されてしまうらしいので、サイト作成で注意しなくては行けない。 Google では、robots.txt でブロックされているコンテンツをクロールしたりインデックスに登録したりすることはありませんが、ブロック対象の URL がウェブ上の他の場所からリンクされている場合、その URL を検出してインデックスに登録する可能性はあります。そのため、該当の URL アドレスや、場合によってはその他の公開情報(該当ページへのリンクのアンカー テキストなど)が、Google の検索結果に表示されることもあります。特定の URL が Google 検索結果に表示されるのを確実に防ぐためには、サーバー上の該当ファイルをパスワードで保護するか、noindex メタタグやレスポンス ヘッダーを使用する(もしくは該当ページを完全に削除する)必要があります。 robots.txt ファイルについて|Search Console ヘルプ|Google robots.txtの検索避けをかけていても他のページからリンクされているとGoogleはクロールせず、内容を知らないままだとてしも見付けたURLをインデックスに加える場合がないわけではない。 基本的にページに必要性があると認めるせいらしいので、インデックスを内容までしっかり承認すると検索エンジンでのサイト評価を高めそうだし、改めてrobots.txtを解除しても良いのではないかと考えると悩ましい。 検索避けを徹底するならばベージにmetaタグのnoindexを記載するべきだけど、または何もしなくても検索エンジンでのサイト評価に直ちに悪影響を及ぼすとはかぎらないかも知れない。 このページを検索結果からブロックしていいものかどうかわからないため、警告としました。 インデックス登録の対象範囲のステータス レポート|Search Console ヘルプ|Google 実際、昨年の十二月半ばから「新しい問題が見つかりました」とデータが付いてからアクセスが伸びてない。ただし以前から続いているのが分かり難いし、他に原因が見当たらなくて参考にするならばページの検索避けを解除するか、徹底するかのどちらかを選ぶのが一つの手だと考える。 有効は実際にインデックスに含まれるベージ サイトの検索結果に出る可能性を持つベージが分かるわけで、恐ろしいのは想定するよりも少ない場合だろう。 Googleでのサイト評価が低いと難しい。一般的にコンテンツを高品質になるべく長文で仕上げる、Search Consoleにサイトマップを更新する度に送信する、外部サイトに関連性のある良質なリンクを多く貼る(自分では少しずつやらないとペナルティーを食らう)などの方法を取ればインデックスは捗るかも知れない。 翻ってインデックスを許可したベージ数に有効が近付いているかどうかがGoogleでのサイト評価が良いかどうかを見極めるための最低限の指標にもなると思う。 除外は検索避けでインデックスに含まれないページ サイト作成でrobots.txt、またはrobotsヘッダータグ(Google検索のみの検索避けの指定)も同じだけど、他にはmetaタグのnoindexで検索避けを行った際に検索エンジンに伝わって上手く働いているかどうかが分かる。 例外的にrobots.txtの検索避けをかけても他のページのリンクからURLがインデックスに加えられて有効(警告あり)に数えられる以外は除外のベージが増えるわけだ。 想定するよりも少ない場合はサイト作成で検索避けを失敗して検索エンジンにインデックスされてしまっているから修正しなくてはならない。 Search Consoleのデータは総じてタイムラグ(遅延)があるからサイト作成から直ぐには反映しない。不調で、全然、変わらない場合も全くないわけではないにせよ、長くても一ヵ月程度で、大体は数日で変わるように感じている。登録サイトを更新したら暫く待ちながら確認するとデータが反映するので、いつも慌てる必要はない。 コメント 新しい投稿 前の投稿
コメント