2012年7月から日本でも導入されたパンダ・アップデート(Googleの検索アルゴリズムの変更)により、バックリンク購入などの、いわゆるブラックハットSEO(検索結果の上位表示を目的にしたGoogleのガイドライン違反となる悪質なSEO)の多くがさらに無効化されました。
例えば、バックリンク購入によって上位表示していたWebサイトにペナルティが課せられ、検索結果の圏外に消えてしまう、という事態が起こっています。パンダ・アップデート、そしてそれ以前より行われているペンギン・アップデートは今後も続くと考えられており、それと同時にSEOはGoogleのガイドラインを順守し、良質なコンテンツで達成すべき、という認識が急速に広まっています。
一方で対策が急がれているのが、これまでブラックハットSEOを行ってきた企業のWebサイトです。特に外部のSEO会社やWeb制作会社に委託していた、あるいはSEOの知識が薄いWeb担当者が勝手に対策を行っていた場合に、意図せず自社サイト内にブラックハットSEOが使われてしまっている場合があります。
これらを残したままにしておけば、今は検索結果に大きな変動が起こってなくとも、今後のアップデートで急落してしまう可能性があります。一度落ちてしまった順位を元に戻すのは難しいため、ネット利用を前提にしたマーケティングを行っている企業にとっては、これは死活問題になりえます。
ここでは、よく使われているブラックハットSEOを確認するための主なポイントを、3つにまとめてみました。企業のWeb担当者は、これらのポイントをすぐに確認してみてください。そしてもし、ブラックハットSEOと疑われる要因が見つかったら、早急に対策を検討しましょう。
最近のGoogleのアップデートで最も話題になったのが、この手のブラックハットです。バックリンクの購入は大手企業も含めて広く行われてきたことで、多くのSEO会社もこれをウリにしていたため、特に現場に混乱をもたらしました。
バックリンクの購入とは、外部に存在しているWebサイトのリンクを購入し、そこから希望するキーワードと一緒にリンクを貼ってもらう行為です。ということはつまり、この手のブラックハットを完全に排除するには、外部サイトを管理しているSEO会社にリンクの撤去を頼まなければなりません。
ただしそこまでしなくても、現在の自社サイトに不適切なバックリンクが施されていないかを、参考程度に確認する方法はあります。「うちは有料バックリンクの契約は解除したしもう大丈夫かも」と思っていても、かつてバックリンクを購入したことがあるのなら、一度確認してみてください。
有料バックリンクからのリンクがGoogleに発見されても、いきなりランクダウンするのではなく、最初にGoogleから警告メッセージが来るようです。そのため、まずはGoogleのウェブマスターツールで、Googleからの警告が届いていないか確認してください。
ちなみに、ウェブマスターツールの警告は、バックリンク系のブラックハットだけではなく、後述のブラックハットが要因で届くこともありますので、定期的にチェックされることをおすすめします。
さて、この時点で警告がなかった場合はひとまず安心ですが、Googleが有料バックリンクにまだ気付いていないだけで、今後警告が届く可能性もあります。そこで、以下の2つの方法も試してみてください。
Googleには、リンクが張られているWebサイトを検索結果に表示する機能があります。全てのリンクを検索することはできないのですが、一次チェックには十分活用できます。
使い方は簡単で、検索の先頭に「link:」を付けるだけです。例えば弊社のサイト(http://baigie.me)であれば、「link:baigie.me」と入力して検索します。その検索結果から、自社サイトにリンクを貼っている怪しいサイトがないか一つずつ確認してみましょう。
また、ドメイン単位になってはしまいますが、ウェブマスターツールで確認することもできます。「サイトへのリンク」からリンク元を全て表示し、怪しいサイトが含まれていないか確認することもできます。
ちなみに、「怪しいサイト」というのがどういうものかイメージが付かない方もいるかもしれません。有料バックリンク用のサイトは、キーワードばかり集めたリンクの集積(ワードサラダ)というものもあれば、情報ポータルやブログのような体裁を取っていることもあります。いずれにしろ、明らかに自社サイトとは関連性のないテーマで、実態のあるコンテンツが存在せず、一般的なWebサイトのように運用されている形跡がなく、全く関連性のない商用サイトへ数多くリンクを張っているようなサイトは、バックリンク用の「怪しいサイト」と考えておいた方がいいかもしれません。
過去にバックリンクを購入したことがある場合、自社サイトに対する被リンク数をチェックすることで、現在もバックリンクが残ってないか、おおよそ想像することもできます。以下のサイトで被リンク数が調べられますので、トップページなど過去にSEO対策を施したことのあるページのURLを入力してみてください。(検索ワードを入れると、該当ワードでの検索結果と、競合サイトの被リンク数が見られます)
ここで表示される外部被リンク数および被リンクドメイン数が不自然に大きい場合には、過去に購入した有料バックリンクがまだ残っている可能性があります。「不自然」というのも基準としては曖昧ですが、ログ解析で把握している訪問数などに対して、異常に大きい数値が見受けられた場合には、疑ってみたほうがいいかもしれません。
また、前述のウェブマスターツールの「サイトへのリンク」でも外部からリンクされているドメインとリンク数を確認できますので、合わせてチェックされることをおすすめします。
前述の通り、有料バックリンクについては、残念ながらサイト運営者側では削除できません。そのため、上記のチェックで疑わしい結果が出たら、最終的には今までに取引があったSEO会社に確認し、排除をお願いするしかありません。ただ、契約解除を求めるようなことになる場合には、快く対応してくれなかったり、放置されたりすることもあるでしょう。その場合に備えて、Googleでは不自然なリンクを拒否するツールが公開されていますので、こちらを使ってみてください。
有料バックリンクに関しては警告メッセージが来ることがほとんどなので、過去にバックリンクを購入したことがあるWebサイトに関しては、ウェブマスターツールを頻繁に確認するようにしましょう。
テキスト詰め込みは、古典的なブラックハットSEOの一つです。これらは随分前からGoogleのアルゴリズムで排除されており、SEOの知識を持っている通常の会社がこういった施策を実施することはあまりありません。しかし、厳密に効いているわけではないためか、悪質なSEO会社や知識のないWeb制作会社、あるいはWeb担当者によって、こういった手法が使われ、そのままになっているケースをしばしば見かけます。
現時点ではGoogleからのペナルティが発生してなくても、いずれ検索結果に表示される上で不利な要因になる可能性があります。ソースコードのチェックだけで確かめられることですし、少しの手間で社内対応できるものばかりです。できるだけ早めに確認し、発見次第速やかに排除することをおすすめします。
<h1><h2><h3><h4><h5><h6>は、主に見出しなどに使われるタグです。この中にあるキーワードはページの中でも重要な意味を持つと判断され、検索エンジンに評価される傾向があります。これを正しく使う分には問題ないですが、この特性を逆手に取った不自然な使い方をしてしまうと、ブラックハットSEOと判断されてしまいます。
特に見かけるのが、<h1>タグを多用するケース。<h1>タグは、もっとも重み付けが強く、検索エンジンに評価されるタグの一つですが、1ページに1回しか使えないタグです。これが1ページ内に頻出するのは、ブラックハットになってしまいます。
確認方法は簡単です。過去にSEO対策を施したページのソースコードを表示し、文字列”<h1>”で検索するだけです。もし<h1>が複数ヒットしたら、それはブラックハットSEOを施されたページということになります。
リンクや画像には、アクセシビリティのために、title属性やalt属性といった属性値を設定して、スクリーンには表示されないテキストを埋め込むことができます。これを悪用し、リンクや画像にキーワードを詰め込むSEOの手法があります。当然これもブラックハットになります。
こちらも確認方法は簡単で、ソースコード内の文字列の検索で確認できます。SEO対策を実施したことがあるページのソースを開き、”alt=””title=”で検索してみてください。検索結果が複数出てくると思いますが、それを一つずつ確認してください。リンクや画像と関係ないキーワードが意図的に含まれている箇所があれば、それはブラックハットの可能性が高いです。
<noscript>というのは、JavaScriptが効かない環境で表示させるメッセージなどを入れるためのタグです。通常は「このページを見るにはJavaScriptをONにしてください」といったような警告文を入れたりします。<noframe>も似たようなタグで、こちらはフレームが使えない環境でのみ表示されるメッセージを入れるためのタグです。いずれも、通常のスクリーンでは表示されないテキストを埋め込むことができるため、これを悪用したSEOが行われることがあります。当然これもブラックハットSEOです。
確認方法はやはり、ソースコードの文字列検索です。”<noscript>”や”<noframe>”で検索し、その中に記述されているコード内に、明らかに検索エンジン向けと思われる不自然なキーワードの羅列や文章がないか、確認してみてください。
確認方法2や3と共通しますが、テキスト埋め込み型のブラックハットの基本は、画面に表示されないキーワードをソースコードに埋め込むことです。これは既に紹介している手法以外に、例えばテキストを背景と同じ白にして見えなくする、画面外に位置を移動させてしまう、文字サイズを1pxなどの目に見えないサイズにして隠してしまう、表示自体を非表示にしてしまうなど、CSSを使って行われることもあります。
CSSを解釈してブラックハットかどうかを見分けるのは、Web担当者には障壁が高いですが、多くはソースコードを見るだけでも大丈夫判別できます。画面には表示されていないけど、ソースコードには存在するワードがないか、確認してみてください。もしそれが、明らかにSEO的に有利になるワードで意図的に仕組まれたと考えられるものであれば、それはおそらくブラックハットでしょう。
もしもテキスト埋め込み型のブラックハットSEOと疑わしい箇所が見つかったら、まずは制作を担当したWeb制作会社か、SEO対策を行ったSEO会社に相談してみてください。ソースコードに手を入れることになり、影響を受けて画面が崩れたりする可能性も否定でいないので、できれば制作スキルがある会社に任せた方がいいです。
ただ、それらの会社が信用できないのであれば、自社で行うことも可能です。該当箇所のソースコードの書き換えだけですし、それはテキストエディタでもできることです。社内にHTMLに詳しい担当者がいる場合には、自社でやってしまった方が、時間も費用もかからずにいいかもしれません。
検索エンジンがWebサイトを評価する上で、コンテンツのオリジナリティを求められる傾向が強まっている、というのも最近のアップデートの特徴です。つまり、中身がなくて別サイトに誘導するだけのページ、他のWebサイトのコンテンツを引用しているだけのページ、あるいはただ複製されただけのWebサイトは、検索結果で上位に上がりにくくなりました。さらに、SEO目的の悪質な方法を用いている場合には、ブラックハットとしてペナルティが与えられるようです。
これらのブラックハットを実行するには技術面を理解していなければいけませんが、Web担当者でもある程度の確認はできます。過去にこういった技術が自社サイトに導入され、今もそのまま運用されていないか、これを機に確認してみてください。
かつて、検索エンジンから流入させるために、検索エンジンに好まれる要素と本サイトへ流入するリンクだけを設置したようなページを作成することが、SEO対策として行われた時期がありました。ドアウェイページやブリッジページなどと呼ばれるものです。現在はあまり使われていない手法ですが、10年以上前に作ったページや、知識の少ない担当者によって作られたページが残っているかもしれませんので、一度確認しておいた方がいいでしょう。
確認方法は、地道なものしかありません。管理しているドメインを全て洗い出し、自社サイトに誘導することだけを目的にしたWebサイトやページが運用されていないかチェックすることです。
なお、ドアウェイページがあったからといって、いきなり自社サイトが検索結果に表示されなくなるということはなく、まずはウェブマスターツールに警告が来るようです。また、サイトリニューアル等によって、一時的にリダイレクト処理を仕込んだドアウェイ的なページを必要とされることもあり、それまでもがブラックハットと判断されることはほとんどありません。
そういう意味で、悪質なことを行っているという自覚がない限り、対策を急ぐ必要はありませんが、検索結果に良い影響を与えることはないので、なるべく早めに、こういったWebサイトやページは取り除いていった方が無難です。
JavaScriptを使うと、訪問しているユーザの属性を確認することができます。この技術を使えば、例えば人が見に来ている時に表示するコンテンツと、検索エンジンが見に来ている時に表示するコンテンツを切り替えることもできます。いわゆるクローキングと呼ばれるテクニックですが、当然これも典型的なブラックハットです。Googleではこれらをもっとも悪質なブラックハットとし、ドメイン削除などの厳しい対処を行っているようです。ブラックハットの中でも特に使ってはいけないテクニックといえます。
考え方としては、人に見えない様にテキストを埋め込むのと同じです。そのため、基本的には方法5~7と同じく、ソースコードを確認し、画面には表示されていないキーワードが埋め込まれていないかの確認になります。
ただし、実際のクローキング技術はさらに高度化しており、PHPなどのサーバサイドの技術やリダイレクトなどの複合技で、ソースコードを見ただけでは分からない処理にされている可能性もあります。自社サイトが複雑なソースコードで構成され、クローキングを行っている可能性があるかも、と疑われるのであれば、プログラムが理解できる専門家に一度見てもらった方がいいかもしれません。
Googleでは、コンテンツのオリジナリティを評価するアルゴリズムになっています。これは例えば、まったく同じ内容のWebサイトが複数あった場合には、元々あった1つだけを評価し、コピーされたもう一方を評価しない、ということです。
プログラムを応用すれば、Webサイトを複製し、キーワード部分だけを自動的に変更する、といったようなWebサイトを作ることも可能です。例えば東京を中心に活動する不動産会社のサイトを作り、「東京」の部分だけを「埼玉」「神奈川」「千葉」などに入れ替えてWebサイトを複製していくこともできます。しかし当然、これも発見され次第、ブラックハットとして判断されてしまうでしょう。
元のWebサイトが削除されることはありませんし、また、サイト移行期などの必然性のあるミラーサイトまでブラックハットと認識されることはないため、対策としての緊急度はやや低いですが、自社サイト内およびその周辺でこのようなことが行われていないか、把握しておく必要はあります。
確認方法は、方法8とほぼ同じで、管理しているドメインを全て洗い出し、コンテンツを丸写ししているようなWebサイトが運営されていないか、確認することです。デザインや特定のキーワードが違うだけで、ほとんど同じようなWebサイトがあれば、それはブラックハットと認識される可能性が高く、対策を打つ必要があります。
転送・複製技術を悪用したブラックハットSEOの場合、Webのテクノロジーをある程度把握している必要があるため、テキスト埋め込み型のブラックハットのように、Web担当者だけで排除できることは稀です。もしもこの手のブラックハットが見つかった場合には、できれば、サーバ管理者などの技術的に明るいスタッフとプロジェクトを組み、可能であればサーバサイドのテクノロジーとSEOに詳しい外部の会社も含めたうえで、対策を検討したほうがいいでしょう。
ブラックハットSEOを使ってはいけない、という共通認識はかなり浸透してきてはいますが、長年運用されたWebサイトでは、このようなテクニックが残ってしまっていることが多々あります。また、Web担当者が途中で入れ替わってしまっている場合などは、このあたりの管理が行き届いていないケースも多く見受けられます。ブラックハットの中には検索結果からの除外という重篤な事態を招くものもありますので、是非一度時間を取って、自社サイトを確認してみましょう。