サーチコンソールを活用したマーケティング分析の方法

サーチコンソールは2015年にウェブマスターツールより改名され、さまざまな機能追加を含めて、非常に有用なツールです。アフィリエイターさんやブロガーさんの中には、アナリティクスは導入していても、サーチコンソールは初耳という方もいるかもしれません。

インデックスの反映や、robots.txtのテストなどテクニカルな部分もあるからかもしれませんが、サーチコンソールの存在自体は知っていても、アナリティクスよりも重要視されない傾向にあるかなと感じています。僕の勤めていた会社でも、アナリティクスを使った解析はされるものの、サーチコンソールを使っている人はあまりいませんでした。他の会社でもそうなのでしょうか?

スポンサーリンク

サーチコンソールは最高のSEOツール

サーチコンソール

サーチコンソールへの登録は、webサイトの公開時には必須といっても過言ではありません。

サーチコンソールはSEOのキモとなる情報が詰め込まれており、SEO施策には必須のツールです。まだ登録をしていないという人は、今日中に設定をしましょう!※ただし自前でサーバーを持っている場合にしか使えません(無料ブログサイトなどでは利用不可)。

検索での見え方 > 構造化データ

構造化データとは、簡単に言えばgoogleの検索エンジンに、サイトの情報を詳しく伝えるコードです。例えば、hentry-titleは記事のタイトルはこれですよ、updatedで何月何日に記事を修正しましたよ、とgoogleに伝えることができます。

世界中に無数にあるサイトを回っている検索エンジンは効率よくサイトを確認するようにシステムが組まれており、hentry-titleといったあらかじめ設定されたコードを優先的に読み込むようになっています。もちろんこの設定をしていなくても検索エンジンがしっかり読み取ってくれることはありますが、こちらから主張してあげることで検索エンジンが見つけやすくなるわけです。

構造化データはあった方が有利なことは間違いないので、導入できる方は利用しましょう。もしhtmlの知識がないけどサイトに欲しいという場合は、wordpressであらかじめ構造化データが設定されているテンプレートを利用しましょう。ひとつひとつ設定するのは結構大変なので、僕もテンプレート任せにしています。ちなみに僕が使っているテンプレートはsimplicityです。

検索での見え方 > htmlの改善

ここではmetaタグに問題がある場合にエラーが表示されます。例えばtitleが複数のページで重複している場合や、descriptionの文字数が短すぎるといった警告がされます。titleはSEOのもっとも重要な要素であり、descriptionは検索結果でのクリック率に大きな影響を与えるので、非常に重要です。

ページをひとつひとつ確認しなくとも、サーチコンソールが自動で検出してくれるので、非常に便利です。よくある例としては、PCとスマホのページを別々のhtmlで作成した際に、canonicalを設定し忘れてしまうと、重複コンテンツとしてエラー検出されます。同じサイト内であってもコピーページを持って今うとSEOの重大なペナルティを受けてしまうので、チェックが必要です。

検索トラフィック > 検索アナリティクス

検索アナリティクス

検索アナリティクスでは、サイト内のページが検索結果のどのようなキーワードで、何位に表示されているのか、表示回数、CTR、クリック数を調べることができます。CTRはClick Through Rate(クリックスルーレート)の頭文字をとったもので、クリック率を表します。CTRは表示回数をクリック数で割ったものです。

SEOでもっとも重要なのはキーワードといって良いでしょう。ユーザーがどのようなキーワードで検索しており、どんな情報を求めているのかを分析することはwebマーケティングのキモです。サーチコンソールでは、一目でどのキーワードで、何位に掲載されているのかがわかります。検索順位が上がってくると、単純に嬉しいというのもあるので、僕はほとんど毎日ここをチェックしています。

また、CTRが低い場合には、titleやdescriptionの変更によってクリック率を改善することも考えましょう。掲載順位とクリック率は相関関係にあり、次の表のようになります。

掲載順位とクリック率の関係
1位 34.35%
2位 16.96%
3位 11.42%
4位 7.73%
5位 6.19%
6位 5.05%
7位 4.02%
8位 3.47%
9位 2.85%

キーワードや競合によっても変動しますが、大体これくらいの数字を目標とします。掲載順位に対してクリック率が低い場合は、改善の余地があるということになります。せっかく表示されているのにクリックされていないというのは非常にもったいなく、流入数に直接影響するので優先順位の高い施策となるでしょう。

また、この検索アナリティクスでは、新しいキーワードの発見もできます。検索エンジンは検索ワードにもっとも関連するページを表示します。例えば「○○ 不評」というキーワードで狙っていったページでは「○○ よくない」「○○ ピンキリ」といった関連キーワードでも表示されます。それぞれのキーワードにあわせたページを作ることで、より広いユーザーを集めることができます。サーチコンソールはユーザーが実際に検索しているワードを集めるためにも有効なツールです。

検索トラフィック > サイトへのリンク

サーチコンソールはサイトへリンクを貼っているリンク元の一覧をリストアップしてくれます。どのページが、どのサイトからリンクを貼られているのかわかるので便利です。例えば記事ページがブログサイトで取り上げられ、リンクを貰う事ができればそこから大きな流入が期待できるかもしれません。そのページを強化することでSEOの向上や、成果アップができます。

リンクを貰った場合は、リンクを返して上げると、他のブロガーさんとの繋がりのきっかけにもなります。自然リンクを増やすことはSEOで非常に有利になります。

また、悪質なサイトからのリンクを見つけた場合は、リンクの拒否もできます。たまにあるのは海外サイトから自動botがなんどもアクセスしてきて、アナリティクスがうまく計測されなかったり、サイトに負荷がかかったりします。

検索トラフィック > 内部リンク

内部リンクは重要なSEO施策のひとつです。コンテンツとコンテンツをリンクで繋げることで、ユーザーの回遊率が高まり、評価の高いサイトとして検索エンジンに認められます。ちなみにSEOの評価基準には、最低でも1つのページは1つの被リンクを受けていないとペナルティがあると明記されています。だれも見ることができない孤立したページは不自然で不必要だからです。

リンクの少ないページは「おすすめ記事」や「関連記事」といったメニューを作り、リンクを繋げてあげることで、ユーザーが記事を探しやすいサイトになります。

Google インデックス > インデックスステータス

ページがインデックスされると、検索結果に表示されるようになります。新しくページを作ったのに、検索で表示されないなということがあったら、もしかしたらインデックスされていない可能性を疑ってみましょう(単純に検索順位が低い場合もありますが)。検索結果にでなければ誰もサイトに訪れることはできないので、SEOの基礎ではありますが非常に重要です。

タブの「詳細」に切り替えると、エラーやエラーの原因などが表示されます。投稿している記事数より明らかにページが少ないという場合は、インデックスされていない可能性があるので対応が必要です。新規ページのインデックスの場合は、後ほど説明するFetch as Googleという機能を使って、検索エンジンにインデックスさせることができます。

僕が以前あった例では、インデックスが異常に多かったことがありました。よくよく調べてみると、意図しない重複コンテンツがたくさんあり、投稿した記事の数倍のインデックスがされていました。重複コンテンツがあると非常に厳しいペナルティを受けてしまうので注意が必要です。

重複コンテンツがあった場合は、canonicalを書き込み、どのURLが本物なのかを検索エンジンに伝える必要があります。また、不要なURLは削除します。

Google インデックス > URLの削除

重複コンテンツを削除したのち、サーチコンソールでURLの削除をすると、その場でインデックスから削除してくれます。放っておいても自然に消えますが、ペナルティの元はできるだけ早く削除したほうがよいので、サーチコンソールを使ってください。

Google インデックス > コンテンツキーワード

ここでは、サイト内で使われているキーワードをすべて集計し、多い順にリストアップしてくれます。キーワードを意識して記事を書いてはいるものの、実際どれくらい使われているのかを調べることは難しいです。しかしサーチコンソールを使えば、キーワードの出現頻度が一目でわかります。

狙ったキーワードが思ったよりも使われていなければ、キーワードの追加などの施策が必要となるかもしれません。僕の場合は、文章の書き方に特徴があるようで「という」「のように」といったワードがピックアップされてしまっています・・・あまり関係のないキーワードが沢山でてきているのはよくないですね。

クロール > クロールエラー

googleの検索エンジンはクローラーというシステムを使ってインデックスをします。サイトの中身を読み込む作業をクロールと呼びます。クローラーはsitemap.xmlというファイルを元にクロールをしますが、そこに書いてあるURLにアクセスできない場合にエラーを検出します。

重複コンテンツがあった場合には、ページの削除とあわせて、sitemap.xmlからも削除する必要があります。実際にはないページのURLがsitemap.xmlに書いてあると、クローラーは探しにいってしまうので、エラーの原因となります。

また、wordpressで記事を公開したり、非公開にしたりを繰り返すと、エラーがでます。クローラーはいつ来るか分かりませんが、タイミング悪くクローリングしている最中に記事を非公開にしてしまうと、途中から読み込めなくなるのでエラーになってしまいます。

ただしクロールのURLエラー自体はSEOに悪影響はないので、あまり心配しなくても大丈夫です。

クロール > クロールの統計情報

クロールの統計情報

クロールの統計情報では、クローラーの動向をチェックすることができます。このデータをみることで、サイトがどのように評価されているのかを確認できます。

【1日あたりのクロールされたページ数】
クローラーの来てくれる頻度が高いほど、SEOの評価が高まるといわれています。つまり、この1日あたりのクロールされたページ数の数値が高くなるほど、SEOがどんどん上がってくるという期待ができます。僕はこのグラフもよくチェックしています。クロールされたエージ数がぐーんとあがればSEOがあがる兆しなので、やる気もあがります。

SEO順位の変動には時間が必要なため、このクロール数が高まってから数日から数週間後に遅れて順位変動がくる傾向があります。記事がバズったり、大きな流入がある場合にクロール数が上がりやすいです。

しかし、逆にクロール数が下がってくると、順位が落ちてしまう兆候ともいえるので、施策を考える必要があります。クロールの統計情報はリスク回避・防止に有効なツールです。

【1日にダウンロードされるキロバイト】
ページがたくさん見られるほど、たくさんユーザーが訪れるほど、このグラフは大きな数字となります。高ければ高いほど、たくさんの人に記事を見てもらえているということになるので、良いですね。

ただし、あまりダウンロード量が大きいと、サーバーへの負荷が高まるので、キャッシュの導入などの施策が必要となるかもしれません。最近なんだかサイトが思いなと思ったら、チェックしてみてください。

【ページのダウンロード時間(ミリ秒)】
この数字は、ページを開くまでにかかった時間です。数値が高ければ、ページを開くまでの待ち時間が長いということになるので、よくありません。画像を多く使ったサイトや、サーバーの性能がよくないと数値が高くなってしまう傾向にあります。

最近ではスマホユーザーが増えており、インターネット環境の悪いところでサイトを閲覧する場合が多くなっているので、サイトスピードの向上は重要です。ページが表示されるまでの待ち時間が長ければ、ユーザーはイライラしてしまい離脱の原因となります。

また、googleはサイトの速度をSEO評価にも使っており、サイト速度を速めることでユーザー評価を上げるとともに、SEO順位の上昇も狙うことができます。サイト速度の計測は、PageSpeed Insightsというサイトでしっかりと評価と対策を計測してもらうことができます。

PageSpeed Insights(ページスピードインサイト)

クロール > Fetch as Google

Fetch as Googleはサーチコンソールで一番よく使う機能かもしれません。Fetch as Googleは、検索エンジンにインデックスしてくれるクローラーを呼び込むことができるツールです。このツールを使わなくてもインデックスはされるのですが、クローラーは世界中にある無数のwebサイトを回っておりとても忙しいので、いつ自分のサイトにきてくれるのか分かりません。せっかく新しいコンテンツを作っても、インデックスされなければ検索結果に出てこないので、誰も見てくれません。

Fetch as Googleを使えば、数十秒でインデックスされます。ただし、新しいサイトや、あまり人が来ていないサイトは優先順位が低くなるようで、数時間かかることもあります。僕のサイトの場合は、サイト公開後1ヶ月くらいの40記事くらいのサイトで、1分くらいでインデックスされました。

一方で、会社員時代に某サイトで、サイト公開後1年たっていていたものの、インデックスがされていないサイトがありました。原因としては、ページ数が6ページしかなくコンテンツも弱かったためか、ユーザーがまったく来ず、googleに低い評価をつけられていたようです。なんとかインデックスされるようにしてくれと頼まれたのでFetch as Googleをしたのですが、1週間待ってもインデックスされませんでした。このように、ユーザーに有用でないサイトは、Fetch as Googleを使っても、インデックスされない場合もあります。Fetch as Googleはあくまでクローラーを呼び込むツールなので、すでに低い評価を受けてしまっているサイトの場合は、コンテンツの手直しが必要となります。

データの動きにはかならず意味がある

アナリティクスやサーチコンソールでは、あくまでデータやグラフしか見せてくれません。そのデータがどのような意味を持つのかは、人が考え、分析する必要があります。

データの動きには必ず意味があります。急激にアクセスが増えたのはなぜか、ニュースやテレビ番組で取り上げられた話題で、検索数が増えたからかもしれませんし、SNSで何回もシェアされたからかもしれません。どんな時に、どんなキーワードでユーザーは検索するのか、その傾向を読み取れるようになると、先回りしてコンテンツを作成することもできるようになります。

特にホットな話題の場合、スピードが命です。誰よりも早く記事を書き、インデックスさせることで膨大なアクセスを確保することができます。新聞社でもネタのスピードを非常に大切にしており、ある新聞社では、距離を3分割して、新聞の内容も変えているそうです。例えば新聞の印刷工場から遠かったり運ぶのが大変な離島や山奥では、配送時間がかかってしまうので夜に出来上がった新聞を配送します。一方で印刷工場に近い地域では、配達にあまり時間はかからないので、明け方ぎりぎりまで新聞の記事作成ができるため、早朝のネタの入った最新の新聞を配達するそうです。

話題のキーワードではSEOでも同様のことが起こり、数時間・数十分で検索順位が変動することがあります。例えば災害情報などでは、刻一刻と状況が変わりますから、ユーザーは数十分単位で新しい情報を求めます。このユーザーの期待に応える記事内容とスピードを追及することが、直接的にサイトアクセスや成果に結びつきます。

さまざまな情報にアンテナを貼り、小さなユーザーの動向に意味を見つけ、よりユーザーの求めているコンテンツを提供することが求められています。

スポンサーリンク
  • このエントリーをはてなブックマークに追加

 ブログランキング・にほんブログ村へブログランキング投票にご協力ください!

コメントをどうぞ

メールアドレスが公開されることはありません。