2026年3月27日(米国太平洋時間)に始まったGoogleのコアアップデート(完了は4月8日)の後、自分が管理しているサイトでGSCの「クロール済み - インデックス未登録」が増えました。
3月初旬の48URLから、4月中旬には167URL。約3.4倍にもなる値です。
noindex、canonical、robots.txt、ステータスコード、サイトマップ、内部リンクなど、技術的な部分を一通り確認しても、致命的な技術的ミスは出てきませんでした。
今回のアップデータはAI対策と称して、クロールの評価基準を変えているため、当方のような個人サイトは巻き添えで大ダメージを受けました。
ここから30日かけて20URLを見直した記録です。
先に結論を書くと、当方としては非常に気分が悪いのですが、未登録URLの多くは「間違っている」のではなく、「すでにSERP上に出ている説明と、同じ範囲のことを書いていた」状態と判断されています。
先に除外した技術要因
本文を疑う前に、以下の順で潰しました。
- meta robots / X-Robots-Tagにnoindexがないか
- robots.txt、CDN、WAFでGooglebotをブロックしていないか
- HTTP 200で返っているか
- Googleが別URLをcanonicalとして選んでいないか
- レンダリング後のHTMLに本文が存在しているか
- 内部リンクから孤立していないか
- サイトマップに正規URLが入っているか
- HTML先頭2MB以内に、title・canonical・本文冒頭・構造化データが入っているか
最後の2MBは、2026年3月31日のGoogle検索セントラル公式ブログで、Googlebotが通常URLについて先頭2MBまでしか取得・レンダリング・インデックスしないと改めて説明されています。
関連記事ウィジェットや広告タグでHTMLが肥大化していると、本文の独自情報部分が2MB以降に押し出されることがあります。
自分のサイトでは18本が該当しました。
20URLとSERPの差分を測った
技術要因を潰したうえで、本文を確認したいので、未登録の167URLから20本を抽出することにしました。
抽出は恣意性を避けるため、GSCからエクスポートしたURL一覧をスプレッドシートに入れ、RAND関数で並び替えて上から20本を選んでいます。
各記事の主クエリで、以下を比較しました。
- AI Overview(2026年4月、日本語、PC、ログアウト・シークレット)
- 通常検索の上位3ページ
- People Also Ask、関連検索に出ている論点
- 自分の記事のH2/H3
判定は、AI Overviewまたは上位3ページ、PAAのいずれかが触れている論点を「SERP既出」、どれも触れていない論点を「SERP未掲載」として、見出し単位でカウントしました。
| SERP未掲載の論点比率 | 未登録URLの本数 |
|---|---|
| 20%未満(ほぼ既出) | 11本 |
| 20〜50% | 6本 |
| 50%以上(独自寄り) | 3本 |
20本中17本は、SERP未掲載の論点が50%未満でした。
様々な問題がセットで起こっており、必ずしも一方の何かが悪いと断定出来るほどではありません。
Googleが「SERPと重複しているからインデックスに入れない」と公式に説明したわけではないし、コアアップデートは特定ページを狙うものではない、というのがGoogleの公式説明です。
自分が言えるのは「未登録URLには既出論点に偏ったものが多かった」と思うしかありません。
なお、Google公式はAI OverviewやAI Mode向けの特別なSEO要件はなく、基本的なベストプラクティスが引き続き有効だと説明しています。
今回のアプデで、権威サイトが圧倒的に強くなってしまっているので、この発言が真実とは思えませんが、「インデックスに残す価値のある情報差分をどう作るか」を考えるしかありません。
「SERP未掲載」と判定した基準
独自論点の判定をブラックボックスにしないため、基準を明示します。
表現が違うだけの見出しは独自とは数えませんでした。たとえば「原因」「理由」「なぜ起きるか」は、同じ論点として解釈される可能性が高いです。
独自と判定したのは、次のような情報です。
- 自サイトのGSCで実際に起きたURL数の変化
- 修正したが効果がなかった施策
- 修正後に登録された日数
- 特定のCMS・テンプレート・プラグイン構成で起きた問題
- AI Overviewや上位記事では省かれていた例外条件
「席の奪い合い」という仮説
Googleの仕組みの正解を知ることはできませんが、「すでに1ページ目にいる奴らが書いてないことを書くぞ!」と決めて作業したら、一番うまくいく可能性は高まります。
これを30日間試しましたが、リテイクで整えるよりこっちの方が効果はありそうでした。
救出できた1URLの差分
| 項目 | 修正前 | 修正後 |
|---|---|---|
| 主な内容 | 一般的な手順解説 | 自サイトで試した30日間のGSC推移を追加 |
| 独自情報 | なし | 日付別URL数、失敗した修正、再登録までの日数 |
| SERPとの差分 | ほぼ同じ | 失敗条件と例外条件を追加 |
| 結論 | SERPと同方向 | 同方向だが根拠が独自 |
| 確認方法 | GSCのページインデックス登録レポートで未登録 | 修正19日後、URL検査ツールで「URL は Google に登録されています」を確認 |
結論はSERPと同方向で構いません。
むしろ無理に反対のことを書くと、ユーザーよりSEO操作を優先した記事に見えます。変えるべきなのは結論ではなく、根拠・条件・失敗例です。
登録に戻すための優先順位
1. 技術要因の除外(前述のチェックリスト)
2. SERPとの突き合わせ。主クエリで実際にAI Overview、上位3ページ、PAA、関連検索を開き、自分の記事のH2と論点を並べる。
3. 検証環境を特定できる情報の追加。日付、URL数、CMS名、テンプレート名、プラグイン構成、GSCの分類、変更前後の数値、検証クエリ、比較対象。「固有名詞を増やす」のではなく、「再現可能な検証条件」を残すための情報です。
4. 失敗例と例外条件の挿入。SERPの要約では省かれているが、実務では条件次第で逆になるケースを書く。
5. 再クロール依頼は最後。本文を実質的に書き換えてから。dateModifiedだけ触っても意味はありません。
まとめ
2026年3月のコアアップデート後、「クロール済み - インデックス未登録」が腹が立つ程、圧倒的に増えました。
技術要因を潰したうえで未登録URLを見直したところ、SERPに出ている内容と論点が重なっているページが多かった、という観察的な視点が得られました。
因果断定はできませんが、登録に戻せたURLは、結論ではなく根拠の側で独自情報を持っていた、というのが20URLからの実感です。
再クロール依頼を連打してもドメインの評価自体を落とされてい可能性があるため注意が必要です。
SERPに出ていない根拠を書くなど、インデックスに残る理由は、文字数ではなく、独自の根拠となります。
コンテンツ品質に実際の問題があったサイトが大幅な改善を行った場合、回復が認識されるのは通常次のメジャーコアアップデートで、典型的には3〜4ヶ月後になります。焦らず、その時までに準備を整える戦略が必要になります。