Googleはウェブマスター(サイト運営者)向けに公式でガイドラインを公開しています。
当該ページへのリンクはこちらです。

Googleガイドラインは「どのようにサイトを作っていくのがGoogle的に望ましいのか」を具体的に書いてくれています。
これはSEOを意識するならば必読です。ブログ・サイトアフィリエイトならば検索エンジンからの流入は一番と言っても良いくらい大事ですから、絶対に読んでおきましょう。
今回の記事では、主にブロガーとサイトアフィリエイターに向けて、Googleガイドラインの要約と個人的にポイントだと思った点を解説していきます。
Googleガイドラインには2種類ある
「一般的なガイドライン」と「品質に関するガイドライン」の2種類があります。
一般的なガイドライン
googleがサイトを認識して検索結果にインデックスされやすくするためのガイドラインです。
「こういうサイトの作りにしたらgoogleが見つけやすくなるよ」ってことですね。
また、このガイドラインに沿ってサイトを作ることは、Googleがサイトに検索順位を付けるプロセスをスムーズに行う手助けにもなります。
品質に関するガイドライン
簡単に言うとペナルティを受けるサイトかどうかのガイドラインです。
こちらは、「こういう品質のサイトだとペナルティ(検索結果からの削除、順位の大幅低下)を与えるよ」ってことですね。
どちらのガイドラインも、サイトを運営していくにあたって必ず踏まえておかなければならないことであるというのは言うまでもありません。
では、それぞれのガイドラインについて細かく見ていきましょう。
一般的なガイドラインの要約と解説
一般的なガイドラインは、以下の3つの項に分けられています。
- Google がページを検出できるよう手助けする
- Google がページを理解できるよう手助けする
- 訪問者がページを利用しやすいよう手助けする
それぞれの項には細かくどういう施策をするべきかが書かれています。
Google がページを検出できるよう手助けする
- サイト上のすべてのページが、検出可能な別のページからのリンクでアクセスできることを確認します。参照リンクには、ターゲットページに関連するテキストまたはalt属性(画像の場合)のいずれかを含める必要があります。
- サイト上の重要なページへのリンクを含んだサイトマップファイルを用意します。また、そのようなページへのリンクの一覧を人が読める形式で記載したページ(「サイトインデックス」や「サイトマップページ」とも呼ばれます)も用意します。
- 1ページのリンクを妥当な数に抑えます(最大で数千個)。
- ウェブサーバーがIf-Modified-SinceHTTPヘッダーに適切に対応していることを確認します。この機能に対応していると、Googleが前回サイトをクロールした後にコンテンツが変更されたかどうかがウェブサーバーからGoogleに通知されるため、帯域幅や負荷を軽減できます。
- ウェブサーバー上のrobots.txtファイルを使用して、検索結果ページなどの無限のスペースのクロールを制限することによって、クロールの割り当てを管理します。robots.txtファイルは常に最新の状態に保ちます。robots.txtファイルでクロールを管理する方法をご覧ください。robots.txtテスターツールを使用して、robots.txtファイルの指定内容や構文をテストします。
この中で主にサイト運営者が気をつけておくべき点は、1と2です。
それらの点について、サイト運営者がしておくべき施策をまとめます。
- リンク切れを放置しない。リンクテキストはリンク先がどういうページかわかるようなテキストにしよう。
- GoogleのためのXMLサイトマップファイルの作成と、ユーザーでも読めるようなサイトマップページの作成をしておこう。
普通にサイト運営をしていればリンクが数千個を超えることはないでしょうし、サーバー側の施策はレンタルサーバーの運営元にまかせておけば良いです。
Google がページを理解できるよう手助けする
- 情報が豊富で便利なサイトを作成し、コンテンツをわかりやすく正確にページに記述します。
- ユーザーがサイトを検索するときに入力する可能性の高いキーワードを検討し、そのキーワードを実際にサイトに含めるようにします
- <title>タグの要素とalt属性の説明をわかりやすく正確なものにします。
- コンセプトに基づいたわかりやすいページ階層となるようにサイトをデザインします。
- 画像、動画、構造化データに関するおすすめの方法に従います。
- コンテンツ管理システム(WixやWordPressなど)を使用する場合は、検索エンジンによるクロールが可能なページとリンクが作成されることを確認します。
- Googleがサイトのコンテンツを完全に把握できるよう、サイトにおいてページのレンダリングに大きく影響するアセット(ページの把握に影響するCSSやJavaScriptファイルなど)がすべてクロールされるようにしてください。Googleインデックス登録システムは、画像、CSS、JavaScriptファイルを含めて、ユーザーが実際に閲覧する場合と同じようにウェブページをレンダリングします。Googlebotがクロールできないページアセットの確認やrobots.txtファイルのディレクティブのデバッグには、Search
Consoleのブロックされたリソースのレポートと、Fetch as Googleツールおよびrobots.txtテスターツールを使用します。- サイト内の移動経路をトラッキングするためのURLパラメータやセッションIDがなくても、検索ロボットがサイトをクロールできるようにします。これらの技術は個々のユーザーの行動をトラッキングする場合には便利ですが、ロボットがアクセスするパターンとはまったく異なります。そのため、これらの技術を使用すると、実際は同じページにリンクしている別のURLをロボットが排除できず、そのサイトのインデックスが不完全なものになる可能性があります。
- サイトの重要なコンテンツをデフォルトで表示します。Googleはタブや展開するセクションなどのナビゲーション要素内に含まれる非表示のHTMLコンテンツをクロールできますが、こうしたコンテンツはユーザーがアクセスしにくいものとみなされ、また、最も重要な情報はページの表示時にデフォルトで閲覧可能となっているものと解釈されます。
- ページ上の広告リンクが検索エンジンの掲載順位に影響を与えないように、適切な対処をします。たとえば、robots.txtやrel=”nofollow”を使用して、クローラが広告リンクをたどらないようにします。
上記の中で特にサイト運営に重要だと思った点への対応を解説していきます。
- 記事タイトルは記事の内容が何を示しているか、また、画像のaltは画像が何を示しているのか明確にわかりやすく書く。
- 記事のコンテンツにはキーワードをちゃんと含めて、内容もユーザーが満足するような質の高いものにする。
- ページ階層を意識したサイト設計にする。カテゴリーなどで記事をちゃんと分類して、ユーザーにもGoogleにもサイトの構造がわかりやすいようにしておく。
- 重要だと示したいコンテンツはデフォルトで表示されるようにしておく。開閉式のメニューなど、デフォルトで隠れている部分は重要度が低いと認識されます。
以上を守っておけば、大きく外すことはないかと思います。
構造化データやCSS・JSファイルは有名なテーマであれば対応されていますので、特に意識する必要はないでしょう。
ユーザーの利便性に配慮する
- 重要な名前、コンテンツ、リンクを表示するときは、画像ではなくテキストを使用します。テキストコンテンツの代わりに画像を使用する必要がある場合は、alt属性を使用して簡単な説明テキストを組み込みます。
- すべてのリンクが実際のウェブページにアクセスできることを確認します。有効なHTMLを使用します。
- ページの読み込み時間を最適化します。表示の速いサイトはユーザーの満足度を高め、ウェブ全体の質を向上させます(特にインターネット接続速度が遅い場合)。PageSpeed Insightsや
Webpagetest.orgなどのツールを使用してページの読み込み速度をテストすることをおすすめします。- パソコン、タブレット、スマートフォンを含む、あらゆる種類やサイズの端末向けにサイトをデザインします。モバイルフレンドリーテストツールを使用してモバイル端末でのページの動作をテストし、修正の必要な箇所についてのフィードバックを得ます。
- サイトが各ブラウザで正しく表示されることを確認します。
- 可能であれば、HTTPSを使用してサイトの接続を保護します。ウェブ上の通信ではユーザーとウェブサイトとの間のやり取りを暗号化することが適切です。
- 視覚障害のあるユーザーにも利用しやすいページにします。たとえば、スクリーンリーダーによるユーザビリティをテストします。
googleはユーザーファーストを明言していますので、サイト作成者が第一に考えるべき点はここです。
主にサイト運営者がすべき施策を以下にまとめます。
- 重要な情報は画像を使わずにテキストで書く。画像を使う必要がある場合はaltに説明を書く。
- リンク切れのチェックをする。
- SSL対応(https化)しておく。
- 主要なブラウザ(IE, Firefox, Google chrome等)でのサイトの表示がちゃんとされているかを確認する。
- レスポンシブ対応済みか確認する。
- サイト表示が速いテーマを使う。
HTMLが正しく使われているかは、独自で変なカスタマイズなどしていなければ、ちゃんとしたテーマを使っておけば問題ないでしょう。
ユーザーはスマホやタブレットやPCなど色んなデバイスでサイトを見るので、レスポンシブ対応は必須です。ワードプレスを使っていれば大体のテーマはレスポンシブ対応済みだと思いますが、対応しているかと表示崩れがないかは確認しておきましょう。
サイトがhttps化されていなければ、しましょう。レンタルサーバーをお使いであれば、使っているレンサバの公式サイトのどこかにhttps化への手順が書かれているページがあるはずなので、それに沿って設定しましょう。
品質に関するガイドラインの要約と解説
- コンテンツの自動生成
- リンクプログラムへの参加
- オリジナルのコンテンツがほとんどまたはまったく存在しないページの作成
- クローキング
- 不正なリダイレクト
- 隠しテキストや隠しリンク
- 誘導ページ
- コンテンツの無断複製
- 十分な付加価値のないアフィリエイトサイト
- ページへのコンテンツに関係のないキーワードの詰め込み
- フィッシングや、ウイルス、トロイの木馬、その他のマルウェアのインストールといった悪意のある動作を伴うページの作成
- リッチスニペットマークアップの悪用
- Googleへの自動化されたクエリの送信
品質に関するガイドラインは、その名の通りサイトの品質が問われます。
品質が低いと判断されるとペナルティを受け、サイトが検索結果から削除されたり検索順位を大幅に落とされたりしますので、絶対にこのガイドラインは遵守しましょう。
具体的にどのようにサイト運営をしていくべきなのかをまとめてみました。それが以下になります。
- 自動記事生成、文章生成のツールの使用はやめよう。
- 不正なリンク獲得はやめよう。
- コピーコンテンツはダメ。口コミなどで引用の必要があるなら、別の部分で独自性を持たせよう。
- 誘導のための質の低いページ・サイトは作らない。
- キーワード連発は逆効果。自然な文章を意識する。
以上を守っておけば良いでしょう。
Googleとユーザーで違うページを見せるクローキング、そしてウイルスやマルウェア配布のページなど悪質な行為をしてはならない、というのは言うまでもないかと思います。
また、文字色と背景色を合わせてユーザーからは見えないようにテキストやリンクを貼りまくるなども良くないです。
この記事のまとめ
ここまで、サイト運営者(ブロガーとサイトアフィリエイター)に向けてGoogle ガイドラインを解説してきました。
googleの公式ページでは網羅的に書かれています。絶対に読んでおきましょう。

基本的にはユーザビリティが高ければGoogleからの評価は高くなり、検索エンジンの裏をかこうとするような怪しい挙動が見つかるとペナルティ、といった感じでしょうか。
サイト運営は検索エンジンからどう見えているかではなくユーザーが利用する時にどう感じるかを意識してやっていこうってことですね。
ユーザーファーストの精神を忘れずユーザーのことを第一に考えたサイト運営を心掛けていきましょう。