SEO対策をするには、検索エンジンを理解しなくてはなりません。
敵に勝つには敵を知る事です!敵では無いですけどね(笑)
検索エンジンはGoogleが圧倒的なシェアを持っています。
YahooもGoogleの検索エンジンを使っていますので、押さえるべきはGoogleの検索エンジンです。
検索エンジンがどう動き、どういう志向を持っているかを理解する事で、何をするのが良いかが解ってくると思います。
クローリング
インデックス
ランキング
検索エンジンは、この3つの行動をしています。
クローリング
ネット上を「クローラー」とか「スパイダー」と呼ばれる検索エンジンが巡回して、全てのページを集めています。
この巡回収集作業を「クローリング」と言います。
クローラーがサイトを見つけられなければ、検索結果に表示されません。
世の中には、数えきれない程のサイト数がありますので、最初はなかなか見つけてもらえません。
クローラーに見つけてもらいやすくするのがSEO対策の1つです。
クローラーは、リンクを辿って巡回します。
クローラーに来てもらうためにリンクが必要と言われるのはこのためです。
この特性を利用(悪用?)して多くのペラサイトや誘導サイトを作ってリンクを張る方も居ます。
意図的に外部リンクを増やして、クローラーを誘導させるSEOの手法です。
もちろん、優良なサイトを作って自然なリンクが増えれば、そこからクローラーが来ますし、その方が信用性は高いです。
サイト運営者は、クローラーを待つしか方法が無いわけではありません。
検索エンジンに巡回をリクエストしたり、XMLサイトマップをアップロードしてサーチコンソール(Search Console)に登録すれば、検索エンジンにサイト更新を伝える事が出来ます。
さくらブログの場合は、記事の投稿画面の下に「更新通知」機能があります。
「通知する」にしておけば、自動的に更新した知らせを「更新通知先URL」に送ってくれます。
何とかクローラー様に来てもらっても、それだけで全ての情報を持って行ってくれません。
来てもらったらXMLサイトマップという、クローラーに解りやすい構成のサイト情報を渡さないとサイト全体の情報を持って行ってくれないのです。
さくらブログの場合は、【メニュー一覧】→【ブログ設定】を選んで、開いた画面から「サイトマップXMLの出力 する/しない」を「出力する」にしておきましょう。
インデックス
クローラーが巡回して集めてきた情報がどこに行くかと言うとGoogleのデータベースに記録されます。
データベースに記録される事を「インデックス」と言います。
検索した際に表示される順番をランキングと言いますが、ランキングに使用するための参照データがインデックスされたデータになります。
ここでは、ページ全体が適切な記述で構成されているかも重要になってきます。
hタグの使い方、タイトルの長さ、画像ファイル説明があるかなど、ウェブの決まり事に沿って書かれているかを見ます。
この点がきちんとしていれば、適正な順位で検索結果に表示されます。
グチャグチャな内容だと検索エンジンが混乱するので、本来の順位より下に表示される事があります。
自分のサイトがインデックスされているか調べる方法があります。
ブラウザの検索窓に「site:http://〜サイトのURL〜/」を記述して検索してみましょう。
ブラウザの検索窓に「site:○○○.com」という形の独自ドメインだけの記述でも構いません。
ドメインの場合は、http://は要りません。
サイトの情報が表示されればインデックスされている状態です。
表示されなければインデックスされていません。
クローラーを待たずにインデックスする方法は、別記事で詳しく説明します。
ランキング
プログラムは、インデックスされたページを分析して、検索順位を決めます。
これを「ランキング」と言います。
検索順位がどう決まるかですが、検索されたワードとコンテンツの関連性、ワードの密度など数百の要素を見て決定されるようです。
検索順位を決めるプログラムの思考パターンを「アルゴリズム」と言います。
アルゴリズムが変わると順位が変更されます。
アルゴリズムは、検索結果をより精度の高いものにする為、日々改良され続けています。
SEO対策が永遠に続くのはこのためです。
SEO対策を調べて行くと「パンダアップデート」「ペンギンアップデート」と云う、ちょっと可愛い感じの語句が出てきます。
パンダアップデートは、2012年7月から実施されている、低品質サイトの順位を下げ、良質サイト順位を上げるアルゴリズムの変更の事です。
現在でも月1回程度のタイミングで継続されているとか。
何をしているかと言うと、自動生成プログラムによって作られたコンテンツの見極め、特定のキーワード用に作られた低品質サイトかどうかの判定、複製サイトの監視、商品説明などをレビューから持ってきているだけのアフィリエイトサイトかどうかの判定です。
これらが見つけた場合は、悪質とみなされ検索順位を下げまくります。
ペンギンアップデートは、2012年4月から導入された、適切なSEO対策がされているかを判定するためのアルゴリズム変更の事を指します。
こちらは、検索順位を上げるためだけにリンクが張られていないか、自動生成サイトからのリンクが無いか、クローラーが見る内容と実際のサイトに違いが無いか、隠しテキストリンクがないか、関係ないキーワードを埋め込んでいないか、検索結果で表示される文字に偽表示が仕組まれていないかなどを調べます。
それまでは、やりたい放題で少し知識があれば検索順位を簡単に操作できてしまっていたようです。
現在でも検索エンジンを騙す方法はあるようで、意図的な順位操作が行われています。
このような、裏技的順位操作をするSEO対策を「ブラックハット」と呼びます。
逆に、内容のある記事を時間を掛けて増やし、閲覧者に正しい内部リンクを提供し、自然な外部リンクを増やすといった正攻法のSEO対策を「ホワイトハット」と言います。
検索エンジンは進化を続ける
どんどん進化する検索エンジンのお陰で、以前よりはまともな検索エンジンになりつつあります。
しかし、SEO対策業者や一部のユーザーの中には、ブラックハットを好む方も居ります。
金が絡む話なので、ブラックが消えることは無いでしょう。
正しい方法をやっている方からすると迷惑な話ですが、穴を防ぎきれないGoogleの問題もあります。
あちらを立てればこちらが立たずって感じでしょうね。
Googleはブラックハットを良しとしていませんので、今後ブラックSEOの効果は薄くなって行くと思われます。
検索エンジンが何を好むかは、その時々によるのでSEO対策の方法も変わってきますが、変わらないのは真面目に有用な記事が多くあるサイトを優遇する事です。
検索エンジンにも検索したユーザーにもメリットがあるサイトは、検索エンジンがどう変わろうとも順位が上がって行きます。
検索エンジンを理解するのは、検索エンジンを理解する事、もっと言えばGoogleを理解する事なので、初心者には非常に難しいと思います。
私も詳しくは解っていません。
検索エンジンを作っている責任者が、時々ビデオコメントを出しますが、英語なので良く解らんのです。
大きな変更に関しては、ネットニュースで流れるので、その時にチェックするだけで良いと思います。
検索エンジンのアルゴリズム変更があっても、右往左往しないサイトを作るようにすべきだと思います。
検索エンジン様に嫌われたくないものですね。
スポンサーリンク