Googleの考えるオリジナルコンテンツ・低品質コンテンツの定義とは


オリジナルのコンテンツを作っているのになぜ、

価値のない質の低いコンテンツ

この警告が来た理由は何なのか?

Google ウェブマスター向け公式ヘルプフォーラムにこんな質問があった。

コンテンツそのものは独自であって、他のサイトからコピーしたものではない。
それにもかかわらず何故Googleはこのようなペナルティを与えたのか?
という質問である。

このようなコンテンツに対してペナルティを課したことは、

  • オリジナルコンテンツとは何であるか?
  • 低品質なコンテンツとは何であるか?

という問いに対して、Googleはどう考えているのか?を端的に表現する、いわば非常に貴重なケーススタディだと思うのだ。

SEO界隈や、アフィリエイターの中で一般的にオリジナルコンテンツとは、他のサイトに同一の文章が存在しないコンテンツと解釈されていることが多い。

しかし、この解釈は間違いということなのだ。
この質問者は、ペナルティの原因はアフィリエイトタグを貼ったことだと思っていたらしいが、そんなことはまず関係ない。

関係ないと言い切るのは語弊があるので、一言この問題についての私の見解を述べておく。
私がもしGoogleのアルコリズムを作る側だったら、アフィリエイトタグがコンテンツ領域に貼られているサイトは、スパムSEOを行っている可能性が他よりは高いと考えるだろう。

企業の公式Webサイトなどと異なり、ブランドイメージを損うことをアフィリエイターは普通あまり気にしない。
また、最悪ペナルティを受けてもサイトを廃棄すればいいので、ペナルティを受ける危険性を承知でブラック、もしくはグレーなSEO施策を行う場合も多い。
アフィリエイトサイトだからということで、ただちにペナルティにすることは絶対にないがそのためやや厳しく判断する。

同じようにブラックな施策をした場合に、アフィリエイトタグが貼られているサイトはペナルティになって、そうでないサイトの場合はペナルティにならないということもあっても不思議ではないと思うのだ。

さて、横道にそれたので元に戻ろう。

今回のペナルティはアフィリエイトタグを貼ったことが原因ではない(少なくとも主要因ではない)。
結局のところ、Googleの言うようにコンテンツが低品質であったためだ。
このコンテンツは、全部オリジナルの文章でありリライトでもないのに低品質に分類される。
その理由は簡単だ。

役に立たないから

である。
GoogleMAPとストリートビューを見れば得ることができる以上の情報がない。
ほぼ何も書いていないに等しいのである。
このようなサイトばかりが施設の名称で検索して上位に表示されたら、ユーザーにとっては大変困ったことになる。
Googleはこのようなサイトを検索上位から排除せねばならないのだ。

さて、いささか乱暴であるのだがこの1例からどのような普遍的な原則を導くことができるのか?について考察してみたい。

1.検索キーワードについてのみ当てはまる文章を書く
2.よそのサイトから容易に得られない情報を書く
3.検索ニーズと合致しなければならない

この3つを満たすコンテンツを作るべきというのが結論だと私は考えている。

1.検索キーワードについてのみ当てはまる文章を書くことについて

タイトルだけを変えて、当該施設と同じビルに入っている別の施設や隣のビルの施設について記述していたとしても、このコンテンツがほぼそのままで成り立つ。
その施設だけに当てはまる情報ではないのである。

2.よそのサイトから容易に得られない情報を書くことについて

よそのサイトから容易に得られる情報は基本的に不要だ。
というかむしろ邪魔である。
1次情報を加工しただけの2次情報は検索結果のゴミを増やすだけで、検索ユーザーから見たら貴重な1次情報を埋もれさせる害しかない。

もし、作るのであればそこに何かオリジナルの考察や、調査、独自の視点が必要になる。
結局はそういったものは自分自身で創りだすものなので、1次情報であると言える。

1次情報がないページは検索ユーザーにとって害であると思って欲しいのである。

3.検索ニーズと合致しなければならないことについて

検索ユーザーが知りたいことがまったく書いていないページに価値はない。
例えば、「タラバガニ レシピ」と検索した時に、「タラバガニのレシピ」ってタイトルでヒットしたページを見たとしよう。

ページにはタラバガニのレシピをを作ったのに「カニ食べるの面倒」って言った自分の夫の話が延々と書いてあったとする。

これはいくらオリジナルであったとしても、検索ニーズにはまったく合致しない。


最後にまとめてみよう。
コンテンツはオリジナルであるだけで品質がいいわけではなく、その上で検索ニーズに合致し、よそにない情報を得ることができなければならない。
そのようなコンテンツが検索エンジンに評価され、そうでなければ、検索ユーザーの役に立たない低品質なコンテンツであるということなのだ。

人工的被リンクによる上位表示対策が確実に死ぬ理由


当ブログでは人工的リンクは、遅かれ早かれGoogleから見破られてしまうためお勧めできないと何度も書いてきている。
しかし、いまだにSEOといえば人工リンクであるという考え方も根強く残っている。

人工的リンクはこれだけのリンクを貼ったことによって、これだけ順位が上がったという因果関係が比較的明確であるのがその理由であろう。

「コンテンツSEOって実際は成果が出るかわからないし、空疎な建前に過ぎない」

という意見も多く聞かれる。
しかしながら、コンテンツSEOによる内部施策についても成果を計測することは可能であり、実際に成果を出すことは可能だ。

参考:コンテンツSEOの成果を定量的に評価する方法

被リンクのつきにくい分野においても、内部施策のみによって成果を出すことは可能だ。
だから人工的被リンクを使うべきではない。

最終的に人工的被リンクは死ぬ

からである。

何故死ぬと断言できるのか?
これが今回のテーマだ。

矛盾するようなのだが、Googleが人工的被リンクを完全に見分けられるようになる日は永遠に来ないはずである。
それでも人工的リンクは死ぬ。

リンクから得られる利益とリンクを作るためのコスト

この上のグラフは

  • 有効な人工的被リンクを作るために必要な平均コスト
  • 有効な1本のリンクから得られる平均利益

を時系列に沿ってグラフ化したものである。
リンクを作るためのコストが上がっていくと、赤い矢印に示した時点でコストが利益を上回ってしまうことを示している。
理論的にはコストをかければ人工的な被リンクであっても、有効なリンクを作れるし有効であり続ける。
しかし、コストが利益を上回った時点において人工的リンクはビジネスとして成立しなくなる。

つまりこの赤矢印のポイントが人工的被リンクが事実上死ぬ地点なのだ。

有効な被リンクを作るためのコストは日々上昇している。
これまでは以下のような被リンクでよかった。

  1. 様々な文章を選んで並べ替えただけのコンテンツを自動生成し
  2. 大量のアンカーリンクを埋め込み
  3. 上位表示させたいページに直接
  4. 上位表示させたい特定の文字列のアンカーテキストを貼る

ところが、

  1. 自動生成系のコンテンツは無効になりつつあり
  2. 大量のアンカーリンクの埋め込みは無効になり
  3. 上位表示させたいページに直接貼るのではなくクッションページを設ける必要が生じ
  4. アンカーテキストの偏りは危険になった

1~4は全て被リンクのコストの上昇につながっている。
特に重要なのが、1.である。

自動でクローリングし、アルコリズムで自動判定するGoogleに対して、人力で立ち向かわなければならないのだ。
だから人工リンクを作る側は様々な対抗策を講じている。

クラウドソーシングや日本語のできる東南アジア人を使って、手作りで記事を作るようにすることでコスト低減の努力を行っている。
普通に作ると1記事にかかっていたコストが500円だったものが、100円で作れば5分の1だ。

このような努力によってコストの低減をはかり、オレンジ色の線を低くするのである。

これによって完全な人工リンクを作れるか?
というとそれはそうでもない。

Googleのリンクグラフの解析能力は日々向上している。

深く解析すればするほど人工リンクは見破られる。
しかし、リンクグラフをより深く解析するためには、コンピューターの演算パワーが必要になる。
演算パワーの進歩はムーアの法則によれば、18ヶ月毎に2倍になると言われている。実際に、1970年代から今日に至るまでこのように進歩が続いている。
2022年頃になると頭打ちになりムーアの法則が成り立たなくなるという予測もあるが、少なくともその頃までは演算パワーの進歩が続くだろうし、それ以降も伸びは鈍化するかも知れないがまた伸びることは間違いない。
ひょっとしたら量子コンピュータの実用化といた技術的なブレイクスルーが起こって、飛躍的に処理能力が伸びる可能性もある。

もし、記事コストを努力や工夫によって5分の1にしたとしても、それは一時しのぎにすぎないのである。

演算パワーが18ヶ月おきに2倍になってしまったら、18ヶ月×3の月数の後には8倍の伸びとなっており、人間の努力や工夫では補えなくなる。

演算パワーによるリンクグラフの解析力が人工リンクを見破る全てではないが、リンクグラフの解析だけではなくその他技術も演算パワーによって進歩する。
演算パワーは指数関数的に増えるのに、人力でできることはたかだか知れている。
18ヶ月毎に倍々ゲームで増える演算パワーに最後まで人力で対抗し続けるのは無理だ。

コンピューター将棋が生まれた時、ほとんどのアマチェアに勝てなかった。
当時、コンピュータが将棋でプロを破ることは無理であるか、はるか遠い未来の出来事であると思われていたものだ。
しかし徐々に進歩して、現在トップレベルのプロ棋士を実力で破るところまでやってきた。
(ちなみに将棋はアマチェアとプロの実力差が非常に大きい競技として知られている。市の大会で優勝するぐらいの腕前でも、プロに1万回挑んでも1回も勝てないってレベルである)

コンピューターの将棋は徐々に世の中における順位を上げていき、人間を圧倒していった。
そして、ついにほぼ全ての人間を倒すに至ったのである。
これもひとえにコンピュータの演算パワーの進歩が最大の原因である。

人工リンクにおいてもこれと同じことが起こっている。

当初は雑な人工リンクすら見分けることが出来なかったため、多くの人工リンク販売業者の跋扈を許してきた。
しかし、現在ではそれよりもマシなリンクを作っても見破られるようになり、かなりの数の人工リンク販売業者は業態転換を余儀なくされている。

今でも人工リンクっぽくないリンクを販売する業者は残っているが、徐々に生き残りが難しくなってきている。
多くの人工リンク販売業者は倒されたのだ。

そうして近い将来完全にコストに見合わなくなって、人工リンクを行うありとあらゆる者は倒されるのである。

アフィリエイトは何故嫌われてしまうのか?


私自身はアフィリエイトを否定するものでは決してない。
むしろSEOを勉強する過程において、アフィリエイトを学ぶことから得られる実践的な知見は大きい。
だからむしろ推奨したいと考えているのである。
SEOだけでは、そこからコンバージョンに至る大部分の過程を学ぶことができない。ところが、アフィリエイトをやることで自分でなんらビジネスを所有していなくても、コンバージョンに至るかなりの過程を実践で学べる。だから、アフィリエイトそのものを推奨したいのだ。

さて、今回の話は、私がアフィリエイトを嫌っているのではなく、

何故世間の人々の多くがアフィリエイトを嫌ってしまうのか?

ということを論じているというわけであるので、誤解のないようあらかじめ申し上げておきたい。

さて、アフィリエイトにはこのような大きなメリットがある。

  • 広告主
    コンバージョンが発生して初めて費用を支払うことができるため、広告の費用対効果が明確である。
  • アフィリエイター
    自分で在庫負担などの金銭的な負担なしで、様々な商品やサービスを売って(紹介して)利益を得られる。

さて、少々話は外れるのだが、近江商人の話をしてみたい。
商才に優れていたと言われる近江(滋賀県)出身の商売人は近江商人と呼ばれた。
成功した近江商人はがめつく商売をすることを嫌い、真っ正直に商売をすることで消費者から信頼を得て成功したと言われている。

近江商人は様々な商売哲学を残したが、その中で最も有名な哲学を体現した言葉が

「三方良し」

である。

・売り手
・買い手
・商売に関わる社会の人々

が全て満足する商売が良い商売であるというのである。
私もこの考え方に賛成である。
これを正しいビジネスのありかたと私は定義している。

アフィリエイトは広告主・アフィリエイター共にリスクの少ないビジネス、販促手法である。
アフィリエイトはWinWinのビジネスモデルであると言われるゆえんだ。

しかし、広告主・アフィリエイターともに売り手側である。

買い手、およびそれに関わる社会の人々にとってもよいのか?

と考えてみるとどうだろう?

まず買い手にとってのメリットとは何か?
消費者自身が気がついていなかった商品やサービスに対する発見を与えることである。

知らないモノを知ったことによって購入の選択肢が増えた。
あるいは、あるモノを買うつもりだったのだが、それとは別のモノの長所を知ったことでよりよい選択をすることができた。
といった場合だ。

商品を提供する売り手自身が気がついていない、消費者視点からみたメリットの紹介。
様々なメーカーを横断した比較といった切り口。

これらはアフィリエイターなればこそできる切り口と言えるだろう。
価格.comなども広告収入で成り立っているわけで、アフィリエイトとも言える。この種のアフィリエイトビジネスは消費者の利益の著しい向上につながっている。

最後にそれに関わる社会の人々についてどう影響があるか?

様々な影響があるが、サーバー業者といった産業の売上が増えたりするといった周辺産業への波及効果があるであろう。

さて、こう書くとアフィリエイトには何も批判される理由はないように見える。
しかし、実際のところアフィリエイトのメリットの本質は、

売り手とアフィリエイターがWinWinであることである。
そこに消費者やその他の人々に対する利益という観点が考慮されていないことが多いのだ。
一言で言うと売る側の都合だけしか考えられず、結果として誰かに害をなすということである。

その結果こういうことがおきる。

1.公平性が考慮されない

アフィリエイトで何かの比較サイトを作る場合を考えてみよう。
商品A、B、Cがあったとして、実際はAが最も価格が安く品質も良かったとする。
その次に良いのがBで、Cは値段も高く品質も悪いとする。

ところが、商品Aにはアフィリエイト広告がなく、Bには広告があるものの広告単価が低い、Cは広告単価が高いとする。

こんな場合、多くのアフィリエイターはCを最も高い評価を与え、Bは相対的に低く評価し、Aは紹介しない。
本来は消費者に対してはAを紹介するべきなのだが、アフィリエイトというビジネスの構造上そういうことにはなりにくい。

消費者の判断を歪める原因になりやすいのである。

2.ステルスマーケティングの温床になりやすい

アフィリエイターの目的は自分が広告するものを買ってもらうことである。
なるべく不利な情報は書きたくない。
まあ、それだけならいい。
嘘八百が並ぶことが多い。

そもそも、ほとんどのアフィリエイターは商品についての知識など一切持ち合わせずに適当に書いている。
数万円もするようなものをいちいち買って評価するなんてことは普通はやれない。
数万円どころの話ではなく、数百円のものだって買うことは稀だろう。

知識を持たずに、売りたいがためにデタラメ、嘘八百の誇大広告を書いた記事は有害以外の何ものでもない。

この手の記事が増えると、逆に売り手にとっても悪い影響が出る時がある。

あまりにもあからさまなステルスマーケティングの記事が増えると、企業姿勢を疑われる可能性が出てくる。
一般消費者はアフィリエイトというビジネスモデルを知らない。
企業が組織ぐるみでステルスマーケティングをやっているって思われたりもする。

だからブランドイメージを大切にする企業はアフィリエイト広告という販促手法を取らないことが多い。

売り手にとっても、買い手にとってもこの種のステルスマーケティングは嫌われるのだ。

3.二次情報が氾濫する

前述のとおり、多くのアフィリエイターは自分でその商品なりサービスなりを実際に使ってみることなく、誰かが書いた情報を元にリライトしたり甚だしきはそのまま丸写ししてコンテンツを作る。
これは何ら新たな価値をネットの中にもたらしていない。
それのみならず膨大な二次情報を生み出すことで、本来必要な一次情報を埋もれさせてしまう。

何かについて調べた時に、アフィリエイトサイトばかりが検索結果に表示された場合のガッカリ感はかなりなものである。
何故そんなにがっかりするのか?
それは、

「そこに自分が欲しいナマの情報があると思えない」
「どうせ似たようなことしか書いていない」

と思えるからである。

4.詐欺が多い

特に情報商材である。
情報商材のアフィリエイトは単価が高いため、かなりメジャーなアフィリエイトの分野の一つであるが、インチキな情報が氾濫している。
このインチキな情報をまき散らしているのがアフィリエイトだ。
アフィリエイトがもし存在しなければ、大多数の人はその種の詐欺的な情報商材を目にすることはないだろう。

またアフィリエイト自体が情報商材のネタとして使われていて、

「何もしなくても、毎日5万円入金される驚異のアフィリエイト」

みたいないかがわしいキャッチコピーで流布している。
見るからに怪しい。この手のキャッチコピーにひっかかるまともな人はまずいない。
ギャンブルのような射幸心をあおる詐欺、それがアフィリエイトであるという図式が多くの人の頭にある。

また、この種の詐欺はアフィリエイターが被害者になる。
射幸心を煽る悪のアフィリエイターが、情報弱者のアフィリエイターをカモにするのだ。
カモにしようという気持ちが溢れまくっているので、アフィリエイトイコールいかがわしいというイメージになるのだ。

5.楽をして稼げるという誤解がある

「何もしなくても、毎日5万円入金される驚異のアフィリエイト」
といったこの手のフレーズがいまだになくならないのは、それがある一定確率で信用されているからだ。
いくらこんなフレーズで引っ掛けようにも引っかかる人がいるというのは、それを信じる人がいるからである。

人は他人が羨ましい生き物だ。
毎日働いていても大して給料をもらえるわけでもない。
それ故に、働きもせずにいい暮らしができるなんてけしからん(実際は羨ましい気持ちの裏返し)!

という気持ちを持っている人がいるわけだ。
実際のところ、アフィリエイトって何もせずに稼げるわけでもないので誤解なのだが、その種の誤解を生み出す表現を日々アフィリエイターが生み出しているのでいつまでたってもなくならない。

6.スパムの温床である

アフィリエイターの多くは、手間をかけずに儲けたいと考えている。
また、ブランドイメージを損なうなんてことを考える必要がない。
だから、スパムに走ることが多い。

検索エンジンスパムは、検索ユーザーの利便性を損なう。
人工リンクを中心としたSEOをゴリゴリやるこで、上位に表示させようとするウェブマスターが多くなると検索エンジンは機能しなくなる。
この検索エンジンの機能不全に大きく一役かっているのがアフィリエイトだ。

上位表示させるためには手段を選ばない。
最悪ペナルティを食らっても、ドメイン移転すればいいやぁみたいな戦略は企業は取り得ない。
企業と異なりいくらでも検索結果を汚染するようなサイトを作ることができる。

またメルマガアフィリエイトみたいなものは、スパムメールの温床になる。
スパムメールはインターネットのトラフィックの多くを占めており、ネットワークの負荷の大きな原因になっている。

7.社会通念上許容しがたい商材を扱う

出会い系などはこの最たるものだ。
「女子高生と出会える」みたいなこんな反社会的な広告を作ったりするのはアフィリエイターである。
いくら出会い系サイトを運営していたとしても、業者自身はそのような広告を作ったりはできないから(本音のところは売上が取れれば万々歳)事実上アフィリエイターを黙認する。


アフィリエイトが嫌われてしまう原因を書いてきた。

私は色々書いてきたが、アフィリエイト自体が悪だと言うつもりはまったくない。
アフィリエイトというビジネスは消費者を軽視しがちになりやすい性質を持っているってことを論じてみただけである。

実際に自分が扱う商品なりサービスをきちんと研究して、分析をし独自の視点からユニークな記事を書いているアフィリエイターも多い。
それは結局のところ消費者の利益にもつながり支持を得られるし、最終的にはそれで稼いでいるアフィリエイターもいる。

消費者視点でのコンテンツを作るアフィリエイターが増えて欲しい。アフィリエイターの社会的認知は向上するだろう。
元々の売る側が気が付かなかった視点での記事を作ることは誰にとってもプラスになる、三方良しのビジネスであるはずなのだ。

さて、最後に付け加えておくと、世の中キレイ事じゃないってそんなことぐらい私だってわかっている。でも、

「キレイ事じゃないんだよ!」

って居直るってことは悪だと思われることを肯定していることに他ならないと思うのだ。
嫌われるのが嫌である、あるいは誤解であると思うならば、消費者の視点からアフィリエイトのビジネスを展開して欲しいと切に願う次第である。

ブラックハットSEOは修羅の道を選択する困難な戦略である


ブラックハットSEOは苦しい戦略である。

大規模サイトを数多く手がけていることで有名なSEOコンサルタントの辻正浩氏は、

実験を続けてアルゴリズムを追いかけるのは修羅の道である

という内容を講演で述べていた。

参照:CSS Nite LP, Disk 29「SEO 2013」についてレポートしてみる(Part.4)

ブラックハットSEOというのはまさしく修羅の道である。
SEOが専門ではない人にとっては、この辻氏の発言からブラックハットSEOが修羅の道である命題を導く意味がわからないと思う。
だから今回はこの意味を述べてみたいと考えた次第である。

まず

修羅の道とは何か?

であるが、修羅道とは仏教の用語で、争い続ける苦しみが絶えない世界であると言われる。
修羅の道を往く(行く)と言えば、常に戦い続ける非常に苦しい道を選択することを指す。

アルゴリズムを追いかけることは、苦しい戦いを続けることを意味している。
では誰と戦うのか?

それはGoogleとである。


こうすれば検索順位が上がるという法則を
実験や観察から導いて
それを自サイトに適用する

これがアルコリズムを追うSEOだ。
誰でもできることではない。

この要因が検索順位に影響するであろうという仮説を立て、
膨大なURL、キーワードを日々追跡し、
仮説を検証し検索順位の推移からから法則を導く。

そこから法則が導けることもある。
しかし、これは生半可な戦いではない。
今日通用した法則が明日も通用するとは限らない。

Googleは年間に数百のアルコリズムの改変を行っているという。
それだけの変更が行われているのだ。
だから、多大な労力を費やして得た知識はいずれ役に立たなくなるのだ。

私の友人の話であるが、彼はSEO会社でアルコリズムを研究しており、得た知識をノートにまとめていたそうだ。
久しぶりに前にまとめたノートを見てみたら、その中に書かれていた手法のほとんどは現在役に立たなくなっていたという。

アルコリズムの変化とはそんなものであり、現在の知識で一時も安住することはできない。
常に新しい実験による仮説の検証、法則化が必要となる。
これが辻氏の言う修羅の道だ。

ブラックハットSEOとは、検索エンジンのアルゴリズムの欠陥を突いて上位表示させるSEOの手法を指す。
アルコリズムの欠陥を突くというのは、アルゴリズムの隙間を探し出してそれを利用することだ。

常に隙間は塞がれていく。
だから新しい隙間を見つけ出さねばならない。

また、欠陥を突くという行為に対してGoogleは冷酷である。
Googleは欠陥を突こうとするものに対して、ペナルティという罰を与える。
この罰は天の神が地上の者に下す雷(いかずち)に等しい破壊力を持っている。

一度ペナルティという雷を受けたWebサイトは、検索エンジンからのトラフィックを絶たれ事実上死ぬ。

ブラックハットSEOは神ともいえるGoogleからの怒りを受ける恐怖と背中合わせに、アルコリズムの隙間を突き続ける絶え間ない戦いなのである。
修羅の道そのものなのだ。
SEO業者、インハウスSEO、専業アフィリエイター・・・、この修羅の道には果てしない数の屍が転がっている。

いつ路上の屍と成り果てるかわからない。それが修羅の道。

では、

この道を往くのが嫌ならば、Googleに従わなければならないのか?
この道を放棄することは、Googleに敗北することなのか?

答えは否である

Googleに従う必要などない。
Googleなんか本当は無視してもいい。

Googleと戦おうとするから修羅の道を往かねばならないのである。
戦おうとするものは常に相手を考えなければならない。

戦うのではなく忘れてしまえばいいのだ。

Googleを一旦忘れて、どんなサイトがユーザーにとって良いサイトなのか?
それだけを考えて作ってみれば良い。

  • 誰もが納得するクオリティの品質の記事
  • わかりやすく明快なユーザーインターフェース
  • 論理的に正しいマークアップ

これを目指せばよい。
少しずつこれらの観点からサイトをブラッシュアップして行くのだ。
Googleのためではない、あなたのサイトの情報を必要とするユーザーのためである。

Googleっていうのは、特殊ではあるがユーザーであることには変わりない。
ユーザーのために作ればその過程においてGoogleから自然に評価されるのである。

Googleという特定の1ユーザーを欺いて評価されようと考えるからSEOは困難な道になる。
誰に対しても良いサイトを目指すことは、手間こそかかるが楽で平和な道である。

私は倫理的な意味においてブラックハットSEOを断罪するつもりはないのだが、それは困難な手法だからやめておくべきだと言いたいのである。

コンテンツSEOの成果を定量的に評価する方法


私のスタンスは繰り返しにはなるが、

ブラックハットSEOを倫理的な意味で非難するつもりはない。
実利を考えるならホワイトハットSEOを行うことをお勧めする。

というものである。
とはいえ、

「力なき正義は無能である」

という言葉もある。
ホワイトハットSEOが正義だと言うつもりはさらさらないが、私は倫理としてのホワイトハットSEOが嫌いで偽善以外の何ものでもないと思っている。

やるからには成果を出さねばならない。

私は近年コンテンツSEOを中核技術において、成果を出すためかなりの試行錯誤を行ってきた。
最初は成果が出るケースと成果が出ないケースがあり、どうして成果が出るのか?出ないのか?が今ひとつはっきりしなかった。
成功の再現性が今ひとつだったのであるが、昨今ではかなり安定して成果を出せるようになってきた。

ホワイトハットで実利を取ることは可能だ。
そして、ガイドラインに抵触しないためいきなり飛ぶといった不安要素がないため、ホワイトハットSEOをお勧めしたいわけだ。

こう書くと、成果が出ないケースもあるってことは、ホワイトハットにも独自のノウハウが必要なのではないか?
と思われそうだが、そんなものは実はいらない。
今までこのブログに書いてきたことばかりである。ただ愚直にやったら成果がでるということがわかったのである。

ただし、一点難しい点がある。
コンテンツを作るための経営的資源(資金、人員)は限られているため、優先順位をどこに置くかが非常に重要だ。
またもし仮にいくら経営的資源が無限にあったとしても、SEOから得られる利益を超えて資源を投下することはできない。常に経営的資源は有限である。

コンテンツSEOがうまくいかない理由は、

  • 資源の投下が足りない(これが一番多い)
  • 自サイトに集客すべきユーザーとコンテンツがずれている
  • 優先順位の付け方が間違っている(資源の投下量が充分すぎるほどであっても赤字になったり、利益がほとんど得られないこともある)

このいずれかが大きな理由であると私は考えている。この3つが適正であり、最低限のSEOの考慮がなされていれば成果は出る

さて、私は「成果」という言葉を使ったが、それではホワイトハットSEOにおける「成果」とは何であろうか?
ホワイトハットSEOについて様々に語られているにもかかわらず、ホワイトハットSEOの成果とは一体何かについて詳しく述べられているのあまり見たことがない。
なので、私はこう考えているということを書いておきたいのだ。ということでやっとここからが本題だ。

SEOの評価基準は2つある。

  1. ファインダビリティ
  2. コンバージョン

この2つであり、これはブラックハットSEOであろうが、ホワイトハットSEOであろうが全く一緒だ。
ファインダビリティとはSEOにおいては、検索エンジン経由でどれだけ自サイトが発見されやすくなっているか?という意味である。

特にブラックハットSEOにおいては検索順位ばかりがクローズアップされるが、ビッグキーワードにおける検索順位はファインダビリティに非常に大きく影響するから重要なのだ。月間検索回数100,000回のキーワードでの1位表示は、検索回数100回の1位表示に比べて単純計算で1,000倍の価値がある。

SEOの第一目的はファインダビリティを高めることである。
だから、自然検索経由でどれだけアクセスを増やすことができたのか?
を測れば成果を比較的容易に測定できる。

コンテンツSEOの成果であれば、新しく作成したコンテンツをランディングページとするアクセス数をAnalyticsで測るのは容易だ。
そのコンテンツが存在しなければ得られなかったアクセス数である。これは確実に成果と言っていい。

もう一つがコンバージョンである。
結局のところWebサイトに集客するのはコンバージョンを取るのが最終的な目的だろう。
であるならば、コンバージョンを測らなければならない。

同じく新しく作成したコンテンツをランディングページとするコンバージョンをAnalyticsで測ればよい。
ただし、コンテンツSEOの評価を直接コンバージョンのみで評価すると判断を誤る。
アシストコンバージョンを必ず含めなければならない。

ページの種類には2つがあり、

  • コンバージョンを取るページ
  • アクセスを取るページ(コンテンツ)

がある。
コンテンツSEOで集められるユーザーは、ほとんどがすぐにはコンバージョンにつながらない性質を持っている。
だから、直接のコンバージョン数で評価するとほとんど効果がないということになってしまう。
しかし、もっとコンバージョンに至るスパンを長くとって見てみると面白いことに気がつく。

初めてサイトに来訪したのはコンテンツSEOのために作ったページであったとしても、数十日後にコンバージョンしているというケースが多く見られるのだ。
ユーザーとの初めての接点を作ったのがコンテンツSEOであったということである。

アシストコンバージョンを得るのが、コンテンツSEOの最終的な目的と言っても言い過ぎではない。
直接のコンバージョンと、アシストコンバージョンを測定して初めてコンテンツSEOの真の成果を評価することができるのだ。

SEOする前に考えるべき3つのこと


新年早々初めてのブログのテーマは

SEOする前に考えるべきこと

である。

こんなことを書いているのも、私自身がSEOそのもの対して興味があまりなくなってきていたりするせいもあるかもしれない。
SEOって結局のところビジネスの目的を達成するための一手法にしか過ぎない。
ビジネスを高い地点から俯瞰して、目的に到達する方法を色々考えることの方が楽しいと思えるようになってきたからだろう。

大切なことはビジネスの目的を達成することで、その方法の選択は各自に委ねられている。

SEOは目的を達成するための重要な選択肢ではあるが唯一無二ではない。

手っ取り早くコンバージョンを取りたいならLP+リスティングがいいし、露出を増やしたいならSEOだけでなくいかにして口コミを巻き起こすか?に知恵を絞った方がいいかもしれない。
そもそも、SEO以前に集客できたとしてもコンバージョン絶対しないだろうってサイトもあり、集客以前にボトルネックを解消しなくてはならない。

私が最近見た事例では、テレビCMなどに大量に販促予算を使っているにも関わらず、問い合わせフォームの入力が難しすぎた会社がある。
問い合わせフォームを改善しただけで、数ヶ月分のコンバージョンをわずか1週間で稼いでしまったということもある。

まずはSEOに取り組む前に、自分のサイトは何のためにSEOをするのか?
今のサイトは集客してコンバージョンする見込みがあるのか?をよく考えるべきだろう。

さて、今回は私なりにSEO以前に考えるべきことをまとめてみた。
これらをサイトの企画の時点、リニューアルの時点、SEOを行う前に考えて欲しいのである。どちらかというと戦略寄りの話しである。

1.サイトでPRしたいことは誰にとってメリットがあるのか?

実はここが最も重要だ。
いくら露出しても、誰のためにもならないサービスも存在する。
サイトの企画そのものがどう考えても失敗ってケースが多い。

ネットでそれを買いたい、その情報を知りたい人がいるのか?

そんな対象者が存在しないというケースが多い。

私はかつて様々なネット系のサービスの立ち上げに参画したり、その手のベンチャー企業に対しての投資の適格性を判断したりしてきた。
最初はその手のサービスを見聞きすると、心がときめいたりしたものだが、そのうちだんだんうんざりするようになったものだ。

「これはニーズがある。だからやりたい。だから出資して下さい。」

いい加減聞き飽きたわ。って感じである。

「じゃああなたはそれを自分の財布から金を出して買いたいと思う?」

って聞くと、

「いや、私は思いませんが、これを買う人はいるはずです。」

最もその商品なりサービスを知っているはずの人すら買わないものを、見ず知らずの誰が買うものですか?
である。

自分の生活と無関係のBtoB系のサービスだったとしたら、そのサービスを利用する対象者に聞いてみて、

「それ、あったら今すぐ買うわ」

って誰か答えただろうか?
ネットでは面と向かって説明するよりもはるかにメッセージは伝わらない。
面と向かって説明しても買うっていう人がいないサービスに利用価値は全くないのだ。

これは全く新しいサービスだけに限らない。
今まで世の中に普通にある商品やサービスについてもあてはまる。

なんの特徴もないティッシュペーパーを、値段も普通だったら誰が買うか?
と、考えてみればわかる。
こんな例だったらすぐ判断できるのに、いざ自分が普段売っているものだったりすると、思い込みがあるせいで、

「ネットでも売れるに違いない」

と思いがちである。
自分だったら買うか?を考えたほうがよい。

2.自分のサイトでなくてはならない理由があるか?

ティッシュペーパーであってもとても値段が安いとか、使い終わった箱を集めると何か面白いものが作れるといった「何か」価値があれば、ネットで売る意味が出てくる。
そして重要なこと、サイト内に、

「何か」

がきちんとアピールできているか?
が重要なのだ。
これがアピールできていないサイトにはほとんど会社パンフレット以上の意味はない。

あれもできます、これもできます、あれ売ってます、これ売ってます・・・

って書いてあるだけのサイトから何かを買ったり、問い合わせをすることはまずない。
このサイトでなくてはならない理由、それがきちんとアピールできているか?

「アピールすることがない」

と思っている人も多いかもしれない。
ならば、あなたの会社で売っているものはネットの世界において競争力が全くないのである。

独自のサービスを付け加える、今まで誰も考えなかった、ネットの中では好まれる、

といった「何か」が必要である。
抽象論を書いていてもしかたがないので、一つだけ例を挙げておこうと思う。

釣り船の一俊丸はまれに見る成功例だろう。
専門職だと考えられてきた釣り船の船頭さんを、サービス業に転換して大成功した例だ。
釣り船といった昔からあり、かつネットとの親和性が低そうな業種であっても工夫次第ではやれるということだ。

一つ考重要なことがある。

思い切りである。
この釣り船の例だが、禁煙にするといった変革を行ったそうだ。
それによって今までの固定客は全く来なくなったらしい。
今までの成功事例を頭の中から消し去る勇気が必要である。できないのであれば、ネットで商売するのは無理かもしれない。

下請けの工場に対して、

「5%コストダウンしろ、しないと別の会社から買うぞ」

と命じると、それまで散々コストダウンを行ってきた工場だともうコストダウンの余地がなく、ギブアップせざるを得ないことがある。
これとは逆に、

「30%コストダウンしろ、しないと別の会社から買うぞ」

と命じられると、30%のコストダウンは今までのやり方の延長上では不可能なので、根本からやり方を再考せざるを得ない。
やり方を根本から見なおすことで達成できたりする。

こんな無茶な要求の善悪はともかく、このような発想の転換が必要なのである。

3.コンバージョンを阻害する要因はないか?

1.2.がきちんとできているサイトであれば、サイトに集客することができれば、多分コンバージョンが得られるであろう。
しかし、阻害要因があれば話は別である。

記事の冒頭で述べたように問い合わせフォームが駄目だったりというのは論外なのだが、そんなケースも多い。
しかし、そんな論外を除いて重要なことは個人情報を預けるにふさわしい信頼感を感じられるか?
そこが重要だ。

信頼感の欠如は重大な阻害要因である。

サイトの作りが素人っぽい場合であっても信頼感のある作りというものはある。

「そのサイトを運営している人が信用できると思えるか?」

である。
例えば旅館のご主人が一生懸命作ってますって感じのサイトであれば、デザインが素人臭くてもさほど問題にならない可能性が高い。
2.がきちんとアピールできていて、それを欲する人がサイトに来訪したのであればコンバージョンするであろう。

有名な会社以外は、運営者の人となりであったり、会社が確かに運営されていることを最低限示さねばならない。


ここに3つの考慮事項をまとめてみたが、この3つは最低限である。しかし、最低限すら満たしていないサイトが実に多い。
まずは、新年にこの観点から自サイトを見なおしてみるというのはいかがだろうか?

SEO担当者は誰に向かって仕事をしているのか


今日もSEOの技術とは全く関係がない話題である。

最近思うことがある。

悪だと言われまくっているSEO業者であっても、中で働いているSEO担当者は悪とは限らないということを言っておきたいのだ。
結局は誰を自分の主人だと考えて仕事をしているのか?
という問題である。

SEO業者に勤務している担当者には4つの主人が考えられる。

  1. 自分の担当するクライアント
  2. 検索エンジンそのもの
  3. 担当者自身
  4. SEO業者の経営者もしくは上司

今風の言葉で言うならば、
「誰得?」
っていう話だ。

1.自分の担当するクライアント

私は全てのビジネスマンは自分のクライアントの利益を再優先に考えるべきだと思う。

私が考える本来あるべき姿は1番目の自分の担当するクライアントだと思う。
これはクライアントの要望に無条件に従うだけではない。
クライアントの利益を再優先に考えるならば、クライアントよりも更に高い視点、広い視野から見る必要がある。
クライアントのためにならないことは、その理由を説明し、対案を提示して説得する義務を負うだろう。

「被リンクで手っ取り早く上げてくれ」

って言われたら、私がSEO業者の担当者ならクライアントの利益にかなわないことを説明する。
対案は常に持っておく必要がある。
内部改善?ロングテールSEO?PPC?
といった2の矢、3の矢を持って初めて説得力を持つだろう。

それらもコスト的、期間的に見合わないと判断した場合にのみ、出来る限りリスクを回避する方法で被リンクを貼るといった対応がベストだと私は考えている。
被リンクのリスクを出来る限り回避する方法はこちらを参照のこと

また実際のところ担当者はクライアントを第一に考えているかもしれないが、そうできないという事情も多々あったりする。
このあたりの事情は最後の4で書く。

2.検索エンジンそのもの

SEO業者の社内のR&D部門(Research&Development:研究開発)などに所属する人は、検索エンジンそのものだけを見ているといった場合もある。
しかしごく稀であり、大手のSEO業者であっても研究専門の人員を抱えていることはほぼない。

とは言え、検索エンジンだけをひたすら見ているといった担当者は存在してはいる。
こういう生き方っていうものは面白そうだと思うが、私自身はあまりSEOそのものにはそこまでの興味がない。
SEOってものはビジネスにおける一つのレイヤーにしか過ぎないっていうのが私の気持ちだ。

それで生きていけて、楽しいと感じるのであればそれはそれで自分の生き方であり、他人がとやかくいう筋合いではないだろう。
とは言え、SEOはビジネス全体からは言うに及ばず、Webの集客手法の一部にしか過ぎない。
生涯一つのスキルで食っていけるか?たいていの職業において微妙だが、SEOもその例外ではない。
SEOのスキルしかなかったらまったくつぶしがきかない。だから個人的な意見としてはSEOのみに執着することは避けたほうがいいと思う。

参考記事:SEOはいつ死ぬのか?

3.担当者自身

自分の美意識で仕事をする担当者である。
職人気質というか、自分の納得する仕事をすることが最も大切という価値観だ。
これはSEO業者に所属している場合でも、インハウスでSEOを担当している場合でも難しい。

会社は利潤を追求するために存在しているわけで、自分の美意識と利潤の折り合いをつけなければならない。
なので、このタイプの担当者はいずれ独立して価値観に共感してくれるクライアントの仕事だけを請け負うフリーのSEOエンジニアになるか、価値観を第一優先から外して普通のSEO担当者としてやっていくかのいずれかを選択せねばならない。

4.SEO業者の経営者もしくは上司

結局雇われている限り仕方がないっていう話だ。
私が一番書きたかったのはこの担当者のことである。

1~3を大切にしたいという価値観を持っていても、実際は会社員として雇われている限りはままならない。
誰から給料をもらっているか?
本来はクライアントからなのだが、しかし自分に給与を払ってくれるのは会社であり、人事権を持っているのは上役や経営者だ。

自分の良心と会社の命令をどこで折り合いをつけるか?という問題はサラリーマンにとって宿命的につきまとう。
どうやって折り合いをつけるか?なのだが、

  • 抱えている案件が少ないのであれば会社の命令に従いつつも、もっとクライアントに対し手厚くフォローする。
  • 自分で会社をコントロールする。

恐らくはこの2つしか選択肢はない。
そして、前者も後者も中小零細SEO業者しかとりえない選択肢だと思う。
特に評判が芳しくないのは大手SEO業者であり、そのような会社にいる限りはどちらも難しい。

大手だとクライアントに相対しているのはSEO担当者ではなくて営業担当者だし、組織全体を変えることも、組織のトップの考え方を変えようと試みることもほぼ無理だ。

そもそも、SEOというビジネスを大手がやろうとするならば、コンサルタントの手がかかるような営業形態はとりえない。

SEO業というビジネスモデルという記事で過去に書いたが、大手はどうしても人的コストの掛かるSEO施策は行い得ないのだ。

大手SEO業者に勤務している心あるSEO担当者は日々苦悩している。
その業者にいる限り出口のない顧客軽視のトンネルを彷徨う。

自分の力量と人脈に自信があれば独立してフリーのSEOエンジニアになるなり、大手Webサイトを運営する会社にインハウスSEO担当者として転職する道もある。

しかし、今まで怪しい被リンクの構築ばっかりやってきたのであれば、自分のスキルに自信も持てないだろう。
家族がいれば食わせなければならない。

とは言え、辞められないと信じこんで可能性を断つのは早計だ。

大体のサラリーマンは小さな杭でつながれた象のようなものだ。

象を最初に捕まえた時は、大きな木につないで逃げられないようにする。
これを繰り返すと、象はつながれている限り逃げられないものだと思うようになる。
小さな杭につながれているだけなのに逃げなくなるのだ。

自分をつないでいたのはこんなちっぽけな杭に過ぎなかったのか?

と気がつけば、逃げられる、あるいは逃げる準備をすることができる。

もし、自分の良心と現在の仕事の折り合いがつかないのであれば、自分は小さな杭につながれた象なのではないか?
と一度考えてみて欲しいのである。

競合サイトのSEOの状況を詳細に分析する方法(難解なのでコンサルタント・SEO担当者向け)


今回のテーマは競合サイトがどのようなキーワードで集客しているかを調査する手法である。
私はこうやっていますっていうだけではあるが、この手の情報が出回っているのを全く見たことはないので参考になる方もいらっしゃると思う。
わりと難解でかつ面倒、そしてGRCを持っていないとできないため、一般のWebマスターには無縁の内容である。
難解で面倒でもやってみたいと考え、かつGRCを持っている(あるいはこれから買ってもいいと思う)人のみが対象となる記事だ。
それ以外の人は時間の無駄なので、直帰することをお勧めする。

さて、

競合サイトのSEO分析で難しいのが
「どのようなキーワードで集客しているか」

である。

SEOというものは結局のところ、

キーワードを介してWebサイトに
ユーザーを集めるマーケティング活動のことである

従って、SEOの観点からサイトを分析するためにはどのようなキーワードから集客しているかを把握しなければならない。
しかし、自サイトであれば完全ではないもののWebマスターツールやAnalyticsから把握が可能だが、競合のWebサイトがどのようなキーワードから集客しているかを知ることは非常に難しい。
どのキーワードで集客しているかを分析しない限りは、SEOの観点からの分析としては不十分であり意味をなさない。

ビッグキーワードでの上位表示の技術の有無がこれまでであればSEOにおける競合分析であった。
既存のSEO系の分析ツールはだいたいそんな感じである。

しかし、SEOの主戦場はロングテールキーワードに移りつつあり、ビッグキーワードを含めた様々なキーワードでどれだけ集客できているか?
といったはるかに難しい分析が必要になってきている。
既存のツールではまず対応できない。

さて、前置きが長くなった。
その手法である。当然ながらあくまで完全なものではないが、ある程度は役に立つはずである。
当サイトを解析の例としてやってみることにしよう。

1.Yahoo!検索で100件表示で
  ページの一覧を取得する

site:minnano-seo.com

※あくまでもYahoo!検索で、100件表示でなければならない。
ページ送りをして全ての検索結果のページのURLを取得する。

  • 検索結果1ページ目(1位~100位)
    http://search.yahoo.co.jp/search?p=site%3Aminnano-seo.com&search.x=1&fr=top_ga1_sa&tid=top_ga1_sa&ei=UTF-8&aq=&oq=
  • 検索結果2ページ目(101位~200位)
    http://search.yahoo.co.jp/search?p=site%3Aminnano-seo.com&tid=top_ga1_sa&ei=UTF-8&pstart=1&fr=top_ga1_sa&b=101
  • 検索結果3ページ目(201位~300位)
    http://search.yahoo.co.jp/search?p=site%3Aminnano-seo.com&tid=top_ga1_sa&ei=UTF-8&pstart=1&fr=top_ga1_sa&b=301
  • 検索結果4ページ目(301位~400位)
    http://search.yahoo.co.jp/search?p=site%3Aminnano-seo.com&tid=top_ga1_sa&ei=UTF-8&pstart=1&fr=top_ga1_sa&b=401

といったように、検索結果の全ページのURLを取得してメモ帳などに貼り付けておく。
(最後の順位を表す数字の部分だけを変えても可)

2.取得したURLを
  キーワードプランナーにかける

キーワードプランナーでYahoo!検索のURLを解析した結果
※クリックすると拡大します

ダウンロードボタンを押し、CSVファイルを取得する。
この操作を1.で取得したURLを全て行う。

3.CSVファイルを全て足しあわせて
  一つのCSVファイルにする

出来上がったファイルがこれだ。
全部を1つのCSVにまとめたもの

4.重複キーワードを省く

重複キーワードの省き方は私だったらExcelを使って、

1)キーワードで並べ替える

2)ダブりチェック用の列を作り(ここではB列とする)、A列がキーワードだとしたら
B2にこんな関数を入れてやる。
=if(a2=a1,”ダブリ”,”OK”)
その後、これを下までコピーしてやる。
すると、ダブっているキーワードはダブリと表示されるので、これをオートフィルタをかけて削除する。
※その際に、再計算が自動になっていると1行消されるたびにワークシート全体再計算がかかってしまうため、いつまでたっても終わらないかも知れない。
なので念のため、再計算は手動にしておく。

5.ビッグキーワードを取り出す

Googleのキーワードプランナーは良いのだが、ビッグキーワードを見出しにくい欠点がある。
2語の複合キーワードを分割して1語を見出してやる必要がある。

A列がキーワードだとしたら
C列にこんな関数を入れてやる。
=LEFT(A2,SEARCH(” “,A2)-1)
D列には
=MID(A2,SEARCH(” “,A2)+1,99)

こうすることでスペースで区切られた前後のキーワードを分離することができる。
これで取り出したE列とF列をExcelに貼ってやり、4と同様にダブリを消す。

本当は3語のパターンもこれと同様に処理してやるのだが、今回は面倒なので省略する。

6.キーワードプランナーで取得できなかった
  複合キーワードを見出す

キーワードプランナーは万能ではない。
しかし、幾つかの操作を加えてやることで、隙間を埋める事が可能になる。
これはその操作である。

4.と5.で取得したキーワードをキーワードプランナーの、
「キーワードのリストを組み合わせて新しいキーワード候補を取得」
を行い、掛け合わせパターンを作る。

私は使い勝手がいいのでAdWords Editorを使って、キーワード候補を見出している。
キーワード候補
※クリックすると拡大します

サイトテーマと無関係のキーワードが多く見出されるが、これを目視で省いてもよいのだがその必要は基本的にはない。
例)「求人 転職」「無料 アプリ」「中国 ブログ」

7.CSVファイルを全て足しあわせて
  一つのCSVファイルにする

4.5.6.で取り出したキーワードを全て足し合わせる。
足し合わせるとこんな感じ

8.キーワードプランナーで全キーワードの検索数を取得する

これが実に面倒くさいことにキーワードプランナーでは検索数は一度に800キーワードまでしか取得させてくれない。
(まあ、リスティングで使うためのツールだから仕方ない・・・)
検索数を取得する処理
※クリックすると拡大します

この画面から必要な回数だけ処理を行い、何度もダウンロードして、CSVファイルを足し合わせる必要がある。

出来上がったファイルがこれだ。

検索数取得済

9.GRCに投入できるようにデータを整えGRCにかける

GRC投入データ

こんな感じに整えたら、GRCにかけてブン回してやる。

どんなビッグキーワードで上位表示しているのか?
どんなページがランクインしているのか?
想定外の集客がされているキーワードは何か?

といったことがかなり事細かにわかる。

完成したものはこちらである。

最後まで読んでいただくとほとんどがExcel上の作業であることがわかるだろう。
とは言えExcelである必要はなく、文字列の処理ができるプログラミング言語を使って処理しても全く構わない。
(実際はプログラミングで自動化したほうがいいと思う)

この手法の最重要ポイントは大量のキーワードデータを処理することにある。
データによるアプローチがこれからのSEOにとっては最重要であると私は考えているのである。


ウェブマスターツールやAnalyticsで得られるデータと照合してみるとわかるが、この方法はそれほど精度が高く出るわけではない。
実際にこの方法でも取りこぼす重要キーワードが数多くあるし、Yahoo!検索の結果は1000件までしか表示されないので、そういった制約もある。
またあまり大規模なサイトに対しては適応させるのは難しい。
※大規模なサイトに適用する場合は、クローラーを作ってtitle、meta keywords、meta description、hnを取得し形態素解析で単語を抜き出すといった処理が必要になってくる。

もっと精度を上げるなら、更にもうちょっと工夫と手間が必要になる。
特に手間は重要で、手間をかければどんどん精度は挙げられる。

しかし、基本的な考え方はこんな感じであり、他サイトを直接見る方法はないため、現状において非常に有力な手法であると考えている。

SEO世界を根底から揺るがす新アルコリズムを勝手に予想してみる


今回のテーマであるが、Googleにこれから導入されると私が思うアルコリズムを予想してみた。
まあ、あくまでも予想だが案外実現する可能性は低くはないという気はしている。

1.アフィリエイトタグを元に
 同一のWebマスターのサイトを紐付けるようになる

現時点でも技術的には実装は可能だろうが、冤罪が発生する可能性が大変高いためあえて実装していない、あるいは実験中かもしれない。

アフィリエイトタグを手がかりにして同一管理者のWebサイトを特定する。
あるサイトがペナルティを受けた場合に、ネガティブ評価の一つのシグナルとして使う。
このことだけで他のサイトがいきなりペナルティを受けるというわけではなく、他のネガティブな要素と組み合わさったらペナルティが発動するといった使い方になるだろう。

なぜ冤罪が発生するのかというと、例えば、
他人のブログのコメント欄や掲示板にアフィリエイトタグを貼る。
無料ブログなどでは自分が貼っていないアフィリエイトタグが自動的に貼られる。
といったことが起こるからだ。
でもこのような問題があるが、技術的にはクリアできそうな感じもするし、ペナルティ発動の小さなシグナルとして使うのであれば問題なさそうな気がする。

2.まとめの自動作成

現在NAVERまとめといったキュレーション系のサービスが大流行である。
確かにこれらのサービスは便利である。
その大きな原因は検索エンジンの機能がまだ足りないことにある。

現在の検索エンジンは一つのページを探すという目的のために作られている。
しかし、これでは用が足りないことが多い。

日本近海で採れるカニの種類を調べたいとする。

このような調べ事をしたい場合は、検索エンジン単体ではまったくもって無理である。
そのような知識をまとめたページを検索エンジンを使って探すことになる。

このようなことをネットで調べたいといったケースは大変多いため、NAVERまとめといったサービスには需要がある。

また現在の検索エンジンで最も不便だと思う点の改善にもつながる。
検索上位は同じような情報のページが占めてしまい、必要な情報が探せないことがある。
もし、類似情報を全て一つにまとめてくれれば、ページを数多く送って探す必要がなくなるかもしれない。

私のイメージとしてはこんなインターフェースである。
「日本近海で採れるカニ」
と検索すると、

日本近海で採れる蟹のSERPsから未来の検索を占う

こんな感じで表示される。むちゃくちゃ便利じゃないだろうか?
目的の情報へのアクセスのしやすさからいずれはこのようなまとめをGoogleが自動的につくるようになるのではないか?

と私は思ったりしている。
実際に現在でも下記のようなカルーセルと呼ばれる検索結果が導入されているので、まとめ機能をGoogleが実装する日は遠くないと思う。

「高倉健が出演した映画」と検索すると、こんな検索結果が出現する。

高倉健が出演した映画
※クリックすると拡大します。

3.範囲指定の導入

例えばショッピングといった分野では金額から検索することができる。
「液晶テレビ」とショッピング検索すれば、価格で絞り込むことができる。

これがもっと拡大されるのではないか?
と私は思っている。
現時点においては、ウェブマスターがタグ付けすることによってGoogleは金額などを見出している。
しかし、いずれはそんなことをせずとも文脈解析・図形認識などによって、

「この数字は横幅だろう」
「これは製品の色だろう」

といったことがいずれは自動的にわかるようになると思う。
そうすると、自分は木目調の家具で部屋をコーディネートしていたとする。
そんな場合に隙間に入る丁度いいサイズの木目調の家具とかを探せるようになる。

現在はこのようなインターフェースはECサイトなどにもないので、一気にGoogleはECサイトの実装すべき機能を先取りして実装しちゃうかもしれない。
そんな気がちょっとしている。

4.ランキング表示機能

「日本の高い山 順番」

と検索すると、富士山、北岳、奥穂高岳・・・といったように順番に表示されるって機能はできそうな気がする。

「日本 高い山」

と検索すると、検索2位に注目いただきたい。

なんとなくそんな感じである。
これを拡張したら多分イケるだろう。

5.文章のオリジナリティを解析する

私は今日のブログでは実はこれが一番書きたかったことである。
現時点においてコンテンツの価値を計る重要な要素は今でもリンクである。

リンクは比較的容易にスパマーから操作されてしまう欠点がある。
しかし、リンクを評価から外すことはあり得ない。Google登場前のスパムサイトのオンパレードの検索結果に逆戻りするだろう。
リンクに替わる評価基準はないだろうか?

私は一つあると思っている。
リンクを評価基準から外すのではなく、別の大きな評価基準を作るのである。

それは、一次情報がどれだけ存在するか?

である。
AはBである。
という関連性をコンテンツを解析して大量に抜き出す。
その関係性が初めて記述されたページをオリジナルとして認識して、一次情報とする。
このアルコリズムを実現することは非常に難しいが、原理的には不可能ではない。

現在の検索エンジンは基本的には共起語の有無によってしかコンテンツの内容の良否を判断できない。
ところがこのアルコリズムの導入によって、コンテンツの内容の正否と一次情報が判別できるようになる。

「タラバガニキャンディー」はタラバガニのキチン質の甲羅を使って作られた、新時代の健康志向のキャンディーである。
という文章が、田村製菓という小さい町の洋菓子店のホームページにあったとする。

タラバガニキャンディーはキャンディーだ。
タラバガニキャンディーはタラバガニによって作られている。
タラバガニキャンディーはキチン質が含まれる。
タラバガニキャンディーは健康に役立つ。

ますは田村製菓のホームページから上記のような関連性を見い出す。
この時点ではまだ評価としては未定だ。
正しいか?どれだけ評価すべきかわからないからだ。タラバガニキャンディーなるものは存在しないかもしれない。

その後それが楽天などに掲載された場合や、アフィリエイターや、はたまたテレビで取り上げられて様々に引用されたとする。
すると、上記のような関連性が様々なページ上に掲載される。
それによって、上記の関連性は正しいものとしてGoogleに認識されて、田村製菓のページの情報が一次情報として評価される。

こんなアルコリズムである。
ページのオーソリティが高い二次情報の方が上位表示されてしまったり、類似情報に一次情報が埋没してしまうことを防ぐことができる。

一次情報を加工した二次情報が氾濫しており、どれが正しい情報なのかさっぱりわからない状況が多々発生している。
私は少々二次情報の氾濫には以前からうんざりしているのだ。同意見の方もいらっしゃると思う。
真に貴重な一次情報を特定できるようになるのだ。

構文解析や、リアルタイムのインデックスといった非常に難易度が高いハードルがあるが、このアルコリズムが導入されればコンテンツの正当性を測る指標としてのリンクは価値を大きく減じるだろう。
SEOの常識を揺るがすアルゴリズム変更になるだろうが、みなさんはどう思われるだろうか?

今ペナルティでなくてもリンクの否認を行うため被リンクのチェックはすべきなのか?


今回は気になる問題について考察してみたい。

人工リンクを行っていなくても
被リンクのチェックはすべきか?

これである。
近年被リンクのチェックを行う必要性が高まっている。

本来であれば、人為的な被リンクを自サイトに対して行ったためにペナルティを受け、これを回復するために行うのが被リンクのチェックの目的だ。
しかし、人為的な被リンクを貼ることによって、競合サイトの検索順位を下げることができることを、Googleは近年では暗に認めてしまっている。

もしあなたが〇〇な状態であれば、否認ツールを使いましょう
マニュアルアクションとられていなくても、おかしなリンクを発見したら否認ツールを使うべきですか?

Googleのアルコリズムについての広報を行っているマット・カッツ氏は、これらの記事に書かれているように、

「ネガティブSEOが自身のサイトに行われていると感じた時」
 もリンクの否認が有用であると述べている。

本来こんなことはWebマスターの仕事ではなく、Googleにやってもらいたいのだが現実を考えれば已むを得ない。

とは言え、リンクの否認を行うことを前提にリンクのチェックを行うべきサイトは決して多くはないと私は考えている。
では、どんなサイトがこれを行うべきか?私が考えるのは3つのケースである。

1.Webサイトからの集客の重要性が高いか?

業務を行うことは人件費が発生することだ。
一般論としては人件費の使い道として優先度は低いものの、Webサイトの重要性が高くなればなるほど重要になると考えなければならない。

重要なサイトであれば、1ヶ月に1回程度は見ても良いと思う。
特に競合が激しい分野、つまり検索キーワードが直接ビジネスに直結するような分野、例えば金融関連などでは重要である。
被リンクによるネガティブSEOなんてあり得ないと言い張っても、万が一ではあっても被害が出てからであれば遅い。

実際、この手のネガティブSEOが成功させることは難しいのであるが、ネガティブSEOを狙ってリンクを貼ること自体は容易である。
たいてい自動化されているため、数万というリンクを一度に貼ってもコストはたいしてかからない。
しかも、リンクは低品質であればあるほど低価格である。

低品質なリンクを数万、あるいは数十万も貼られれば、たいていのサイトは大丈夫とは言い切れない。
成功率は低いものの攻撃する側としては比較的低コストでできるから、こんな人の道に外れたことを誰もやらない保証はないのだ。

2.人為的な被リンクを行っていたことがあるか?

人為的な被リンクをこれまで行っていたら、サイトの状況は危険水域にあるかもしれないと思っていたほうがよい。
被リンクによるペナルティは、堤防と一緒である。
ある程度の水位までは耐える。
しかし、ある一定の水位を超えると一気に決壊する。

人為的な被リンクは今現在は確かに検索順位の上昇に貢献しているかもしれない。
しかし、確実に水位を上げている。
一番いいのは人為的な被リンクをやめることなのだが、やっているのであれば特に注意せねばならないだろう。
中古ドメインを使っているといったケースも同様だ。

3.スパムペナルティを受けたことがあるか?

このようなサイトはブラックリスト入りしていると考えたほうがよいと私は思う。
憶測にしか過ぎないのだが、私がもしGoogleだったら、かつてペナルティを与えたサイトについては特に警戒する。

会社の金を横領したという過去がある人物がいたら、収監されて処罰を受けて帰ってきたとしても私だったらお金を任せる仕事はさせない。
私だけではなくて、多くの人もそうだろう。

こういうふうに疑いの目で見られるわけで、恐らくはその人物は終生そう思われる。

Googleもこれと同じだろう。
永遠に猜疑心は消えることなく持ち続けると考えたほうがよいと思うのだ。


さて、上記の3つのケースを除きリンクの否認のために、被リンクのチェックをする必要はないと私は考えている。

最後に、どのようなリンクを否認しなければならないのかについて書いておこうと思う。
実際にGoogleから警告が来た場合は、疑わしきリンクは全て外すなり、否認するのが原則である。

しかし、上記のような場合はあくまで予防であり、危険水準に近づいた水位を下げることが目的である。
ナチュラルなリンクを残さねばならない。

誰が見ても確実にSEO目的のリンクだとわかるようなリンクをはずさない限り、水位を下げる効果は小さい。

手っ取り早く水位を大きく下げるためには、アンカーテキストに着眼するのがよいと考えている。
SEO目的の被リンクは、アンカーテキストにSEOしたい文字列が非常に高い確率で含まれるのが特徴だ。
だから、それに着眼すればよいのだ。

ウェブマスターツールにはどのページから、どのアンカーテキストでリンクされているかチェックする機能が残念ながらない。
ダウンロードしたURLについて、どのようなアンカーテキストでリンクされているかチェックするといったツールを作ることは、ちょっとプログラムを作れれば難しくはない。

こんなものを作って、重要キーワードに焦点を合わせてチェックすることが有効だ。
重要キーワードでの、低品質なページからのリンクを減らしてやれば、安全性はぐっと高まる。

これはお勧めである。