今回は、PythonのPandasというライブラリーを使用したデータ解析方法です。検索順位の改善に必要なキーワード情報を一瞬で取得する裏技を紹介します。
この記事では、Pandasを使用してデータの取得するところまでを紹介しますが、Dockerなどを使用したPython環境の説明はしません。必要な技術と感じたら「Docker 環境構築」や「Python 環境」と調べて勉強してみて下さい。また最後には、ココナラの告知があります。やりたいけど、どうしても理解できない方はご依頼下さい。
わずか5秒で検索順位の改善に必要な情報を抽出する裏技
まず初めにサーチコンソールの「検索結果」のページの右上にある「エクスポート」からCSVをダウンロードして下さい。

ダウンロードしたCSVを使って検索結果の改善に必要な情報を見つけます。
まずは、結論を書いてしまいます。
以下のPythonを順番に実行すればCSVファイルで検索結果の改善に必要な情報を抽出する事が出来ます。
①
import pandas as pd
②
df = pd.read_csv('CSVファイルの場所')
df.head()
③
kurikku = df['クリック数']
kurikku.head()
④
keyword = df['検索キーワード']
keyword.head()
⑤
hyouji = df['表示回数']
hyouji.head()
⑥
ctr = df['CTR']
ctr.head()
⑦
junni = df['掲載順位']
junni.head()
⑧
# 表示が少ないキーワード
Daihyouji = (100 > hyouji)
df[Daihyouji].head(10)
⑨
# クリック数が多いもの
Daikurikku = (10 < kurikku)
df[Daikurikku].head(10)
⑩
# 検索順位が低いもの
teijunni = (3 < junni)
df[teijunni].head(10)
11
# 改善箇所
kaizenn = df[Daihyouji][Daikurikku][teijunni]
kaizenn
12
kaizenn.to_csv('改善点.csv', index=False, encoding='utf-8-sig')
プログラムを実行すると5秒もしない内に一瞬で改善点.csvが生成されます。

解説
では一つずつ解説します。
①では「import pandas as pd」では「pandas」というデータ解析を支援する機能を提供されたライブラリをインポートしています。
②では予めダウンロードした検索結果のCSVファイルを読み込んでDataFlameを作成しています。
③ではクリック数の項目のみを取得。④では検索キーワードの項目のみ取得。⑤では表示回数の項目のみ取得。⑥ではCTRの項目のみ取得。⑦では掲載順位の項目のみ取得。
⑧では表示件数が100以下の項目を取得。⑨ではクリック数が10以上なものを取得。⑩では検索順位が3以上のものを取得。
11では表示件数が100以下かつクリック数が10以上かつ検索順位が3以上のものを取得。(これが改善できるキーワード)
12では11で取得した一覧をCSVファイルにして、検索結果のCSVと同じディレクトリに保存しています。
取得したい情報について
今回は「表示件数が100以下かつクリック数が10以上かつ検索順位が3以上のもの」を取得しましたが、その理由は以下です。
- クリック数があるという事は一定数の需要がある。
- その中で表示件数を100以下に絞ると自然とCTRが高くなる。という事はユーザーの関心はある。
- そんなキーワードで検索順位が残念なものは改善の余地がある。
という事です。
各項目の数字を変更すればデータは変わってきますので、項目が出てこない場合は数値で調整して下さい。
以上が「わずか5秒!一瞬で検索順位の改善に必要な情報を抽出する裏技」でした。
今回の作業はコピペで行けるので、Pythonの知識はさほど必要ないが、環境構築に関しては各自で行う必要があります。理解出来れば上のコードで実行すれば終わりです。