Googleのアルゴリズム変化とその威力

作成日:2017/08/18

 

世界初の検索エンジンは1990年に登場

C-0426_1

1990年、世界初の検索エンジンと呼ばれる検索エンジン「Archie」が誕生しました。今さら説明するまでもなく、検索エンジンとは、ウェブページ、ウェブサイト、画像ファイル、ネットニュースなどインターネット上の情報を検索する機能およびそのプログラムのことです。

 

ただArchiが検索するのはファイル名であり、ファイルの内容ではありませんでした。また、今日のように表示順位が高くなるとウェブページなどへのアクセス数が優位になるという考え方もありませんでした。

 

その後、1995年にYahoo!(Yahoo!JAPANは1996年)、Excite、infoseekといったディレクトリ型検索エンジンが登場し、お目当てのWEBサイトを探す手段の主流となっていきました。ちなみにディレクトリ型検索エンジンとは、エディタと呼ばれる人の審査により合格したサイトのみが登録・分類されることで構築したウェブディレクトリ内のコンテンツを検索するシステムのことです。

 

ところが、ウェブサイトが飛躍的に増えていくなかで、マンパワーによるウェブサイトの分類は限界を迎えるようになってきました。

 

そこで、これに代わる検索システムとして登場したのが、ロボット型検索エンジンと呼ばれるものです。ロボット型検索エンジンは、人の代わりに「スパイダー」「クローラー」と呼ばれるロボットが世界中のサイトを自動巡回します。そこで見つけた新しいサイトは、自動的に登録され、膨大な数のサイトを検索対象にできるようになりました。

☆あわせて読みたい

『フリーランス人材の悩みとは?業務委託の雇用形態とメリットデメリットを解説』

『簡単にわかる「フリーランスとは」入門ガイド 』

『フリーコンサルタントは副業でも稼げる?単価・種類・注意点を解説!』

 

 

SEOの歴史と背景事情

ディレクトリ型検索エンジンが主流を占めていた時代、SEO(Search Engine Optimization/検索エンジン最適化)は、同じカテゴリに登録されている競合サイトのなかで、いかに順位を上げるかというものでした。

 

ディレクトリ型検索エンジンでは、半角記号、英数字、全角記号、50音の順で表示されていました。そのためのSEO対策として「@タイトル」など、意味のない半角記号をつけたウエブサイトが多数出現しました。

 

そんななかに表れたのが、前述のロボット型検索エンジンです。ここでSEO対策は抜本的な変更が迫られるようになったわけです。

 

ただし、当時のロボット型検索エンジンは、キーワードの出現率やサイトのページボリュームで検索順位を決めるという簡単なアルゴリズム(演算法)でした。そのため白文字などの隠しテキストを画面いっぱいに貼り付けたり、ウェブページ内に内容と関係ないキーワードを大量に盛り込むようなことでも、それなりのSEO効果がありました。

 

ところが、この手法が通用しなくなるようになったのはGoogleが発展する2000年頃からのことです。Googleは隠しテキストや無意味なキーワードを多量に盛り込んだサイトにペナルティを課しました。

 

その代わり、外部リンクが多いサイト(=他の多くのサイトにリンクを張ってもらっているサイト)を良質なサイトとする評価基準を設けました。

 

しかし今度は、自分のサイトとまったく関係のないジャンルのサイトと相互リンクをはったり、外部リンクを購入したりするなどの対策が横行します。そのため検索ワードとはまったく違う内容のサイトが上位表示されるような事態も起きました。

 

そこでGoogleは、ブログのコメント欄に大量のリンクを投稿することや、SEOのためだけに相互リンクを張ったものをスパムと見なし、新しくペナルティを課すようにしました。

 

Googleのアルゴリズムに、次々と大きな変化が起きるようになったのは、この時期からです。

 

もちろん、SEO会社や専門家は、その都度対策を練っていたそうですが、Googleがすぐに新しい基準を打ち出す(らしい)ので、結局は泥沼状態に陥ってしまいました。

 

 

Google最凶のアルゴリズム、パンダアップデートとペンギンアップデート

C-0426_2

前章で少し触れたように、SEOにおけるアルゴリズムとは「キーワード検索に対して、数千~数万あるコンテンツをランキング化するためのルール」のことです。SEO対策などを語るブログ「バイラルクラブ」によると、Googleは2012年では500回以上の検索エンジンのアルゴリズムのアップデートを行なったと公表したそうです。

 

そしてこのアップデートが、検索結果の順位変動の最大の原因のひとつといわれています。そのなかでももっとも有名なものが、2012年に日本に導入された「パンダアップデート」「ペンギンアップデート」です。

 

まず、パンダアップデートとはコピーコンテンツや情報量の少ないコンテンツの順位を下げるとともに、調査レポート・研究結果など、オリジナル性の高いコンテンツの順位を上昇させるというものです。

 

またペンギンアップデートとは、テンプレート化されたリンク集ページからのリンク(もちろんそのリンク集ページも対象)や、1行文章紹介型(1行ずつ関連のないテキストを並べているサイト)リンク集ページからのリンクを受けているサイトの順位を下げるというアルゴリズムです。同時に、自動相互リンクシステムに登録して得たリンクやアンカーテキスト(リンクされている部分のテキスト)に著しく偏りがあるリンクも減点対象になります。

 

アレグロのSEOブログによれば、パンダアップデートにより検索クエリ(検索質問)の12%、ペンギンアップデートにより検索クエリの3.1~5%に、影響があったとされています。実際、あるアフィリエイトサイトでは、開設後数ヶ月間で特定キーワード1位となりましたが、メーカー提供の商品解説のテキストをオリジナルコメントと同時に掲載していたところ、パンダもしくはペンギンにスパムとみなされたらしく、一時圏外にまで追い落とされるという事態も発生しました。

 

namazでアルゴリズムの変化を推測する

C-0426_3

しかし、残念なことに、Googleは検索エンジンのアルゴリズム変更の公表については非常に消極的です。

実際、Google上級管理者のゲイリー・アイリーズ氏は、2016年5月、あるWEBマーケターとのtwitter上での会話の中で「ほとんどの(アルゴリズムの)アップデートは、気づかれずに行なわれます」と書き込んでいます。これでは、検索エンジンの上位表示を目指して日々努力しているウェブマスターは、どのような対策を打てばいいのかわからなくなるでしょう。

 

しかしSEO対策としての指針のひとつとなるのが、namaz.jpによる順位変動調査の応用です。

 

namaz.jpとは、Googleの大幅な順位変動を調べられるツールです。それもサイト全体でいつ大幅な順位変動が起きたのか、あるいは自分のサイトだけが順位を落としてしまっているのかを知れます。

 

たとえばサイト全体の順位に大変動が起きたならば、Googleが検索エンジンのアルゴリズムを大幅に改定したと推測ができますし、そのなかで自分の順位が下がっていれば新たな対策が必要になることがわかります。

 

また、大幅なアルゴリズム変更がなさそうなのにもかかわらず、自分のサイトの順位だけが下がっているのであれば、これとは別の対策が必要になるでしょう。もちろん、大変動が起きたにもかかわらず自分のサイトの順位が上位をキープしていれば、Googleのペナルティを受けなかったということになります。

「Googleが検索順位を決めるのに使っているSEO要素は、全部で数百以上あるといい、その全てに対策をするのは、『Googleスタッフでも不可能』」とも言われています。。

 

では、Googleで高い検索順位をキープするにはどうしたらよいのでしょうか? その質問に対して、Googleアイルランド上級ストラテジストのアンドレ・リパセフ氏は「それは、コンテンツと、あなたのサイトについたリンクです。重要さはどちらも同じ程度で、両方そろっているかが大切」(翻訳:SEOパック)とのことです。

 

どうやったら高順位をキープできるかというSEO対策ばかりを考えるより、より良質なコンテンツを作り、自発的な被リンクが得られるようにするべきでしょう。

 

(株式会社みらいワークス Freeconsultant.jp編集部)

 

コンサル登録遷移バナー

 

◇こちらの記事もオススメです◇

今さら聞けないSNSのビジネス活用法」