グーグル社員になりきってSEOを考えれば10年先も怖くない!

グーグルなどの検索エンジンも、私達と同じでお金を得るために運営しています。

その収入源は、検索エンジンを使う人が沢山増やして、SEOではなく有料の広告を沢山買ってもらうことです。

ではもし、あなたがグーグルの社員だったら会社の利益を増やすためにはどうしたらいいですか?

答えは、「検索結果からSEO対策で上位に上げているサイトを排除」して、「本当にユーザーにとって価値のあるサイトを上位表示」させればいいですよね!!

 

グーグル社員の気持ちになって10年先のSEOの根本を考える

本当に有益なサイトが上位表示されれば、グーグルのユーザーはグーグルの検索結果に満足して、ますます調べものをするときにはグーグルを利用してくれるようになります。

逆に、被リンク対策をゴリゴリに行っているサイトや、コピーコンテンツや似たような内容の、質の低いコンテンツのサイトが上位表示されてしまったら、ユーザーはグーグルにがっかりして利用者は減ってしまうでしょう。

そうすると、有料広告のクリック数や利用してくれる会社(お客様)が減ってしまい、グーグルは売上が下がってしまいます!;

 

これは会社にとっては非常事態ですよね!!

なのでグーグルなどの検索エンジンは、パンダUPデートやペンギンUPデートなど、過剰なSEO対策で上位表示しようとしているサイトの評価を下げるプログラムの開発を行い続けているのです!!

 

では、「グーグル社員が評価を上げたいサイト」とはどういうサイトでしょう?

もう答えは出ていますよね!

「ユーザーが検索結果に満足する、内容の濃いい魅力的なサイト」ですよね!!

ではもっと具体的に考えてみましょう!

 

被リンクが自然についている

これはすぐに思いつくことだと思います。

被リンクというのは、本来はそのサイトを気に入ったユーザーが他にも紹介したいから付けるものであって、SEOの為につ付けるものではないです。

 

では、あなたがグーグル社員だったら、どういうプログラムでこの問題を解決しますか?

こういうのはどうでしょう。

自作自演の被リンクを行っていない、自然なサイトの被リンクの付き方を、徹底的にデータ化して、オリジナルの数値基準を沢山まとめます。

そして、その基準値と様々なサイトを、自動的に計算して不自然な被リンクの付いているサイトを探し出す。

 

こういうプログラムを組めば、人間が目視して考えることなく、コンピューターの自動処理で膨大な数のWEBサイトを選別することが可能ですよね!

詳細はグーグル社員にしか分かりませんが、こういう仮説を考えることは出来るわけだし、今のSEOの流れと合点が一致するところがありますよね?!

 

あくまで、私個人の考えであり予想ですが、今後もますます不自然な被リンクを解き明かすプログラムは強化されるはずです。

10年先を見据えた場合、被リンクにたよったSEOではなく、コンピューターにとって不自然だと思われないような被リンクの付け方をする必要がありそうです。

 

私の場合は、数を絞って関連性のある質の高いサイトからの被リンクをメインに、様々に分散して付けるようにしています。

関連性のあるサイトの被リンクが基盤ですが、自然なリンクであれば無料ブログクラスの質も含めて、色々と分散して付けていきます。

アンカーテキスト分散、IP分散、ドメイン分散、サイト形式分散、リンクの設置位置分散、TOPページやサブページへの分散、などなど被リンクに偏りのないように気を付けて、数を少なく少しずつ丁寧につけています。

 

リンクを1つ1つ丁寧に付けていってエクセルで管理すれば、自分で自然なリンクの演出(ナチュラルリンクの真似w)が可能になります。

数が多すぎると、偏りが出てグーグルに検出される可能性が上がってしまうかもしれません;

でも、ある程度絞り込んだ被リンクなら、色々な要素を丁寧に分散させて自然に付けることが可能です♪

被リンクは、自作自演が「ばれなければ」効果があります!!

だから、「ばれないように」付ければいいわけですw

 

内容が面白い=人気がある=役に立つサイト

面白いサイトがどうかを、プログラムで判断することは難しいですよね;

では、あなたがもしグーグル社員なら、どうやって「面白く魅力的で約に立つサイト」と、「低品質なコンテンツのサイト」を見分けるのか?

 

こういうのはどうでしょう?

人間の行動から考えて、ユーザーが面白いとか、役に立つとか、思ったときの行動パターンをデータ化して、それを基準に判別する。

たとえば、そのサイトが有益な内容ならば、クリックしてそのサイトを表示したあと、そのサイトをくまなく見て回るはずですよね!

平均ページ滞在時間や、平均ページ閲覧数、これらの数字は大きくなるわけです!

 

逆に、有益なコンテンツが少なければ直帰率が増え、滞在時間やページビュー数はガクっと減るわけです;!

こういう数値を調べていけば、感情のないコンピューターでも、人間が気に入ってくれたサイトが判断できると思いませんか?

私は、とにかくユーザーにとって、「魅力的で有益なコンテンツ」であるように、カラーミーのショップを作成して、運営していますよ~!!

 

実はこれは、かなりよく言われている話です。

ガンガン稼いでいる人からの情報なんかでも、こういう内容は定期的に目にしていますので、信憑性は高いといえます。

 

プログラムで数値による判別可能なデータは、全て評価基準になる

上記に、大事な考え方のポイントと思っている2つを書いてきましたが、ようするに、平均値をデータ化してその数値と比べることで不自然な要素やマイナス要素、そんな数値を検出したらスパム判定の対象になる。

 

こういうプログラムを、私がグーグル社員だとしたら考えますし、どんどん強化すると思います。

だってそうすれば、機械でも人間の気持ちにそった判断基準でビシバシサイトを評価してくれるようになっていくはずだからです!

あくまでこれは、私個人の今までの経験と、業界の有名実力者の情報を総合して独自に考えて書いている話です。

 

でも個人的には、これでそんなに外れてはいないと思います。

グーグルの特許文書中にも、数値の平均値を比べたり、急激な変動を数値で感じ取ったり、そういう内容な度々でてきています。

これは、個人の憶測ではなくて、まぎれもない事実です!!

 

なので、今後10年先を見据えるなら、「サイトを訪れたユーザーが気に入って満足してくれる内容のサイトを作る」これが最強のSEO対策ではないでしょうか?

もしSEOのテクニック的な判断にまよったときには、自分がグーグ社員ならどういうプログラムを考えるかな?

と考えてみる!

さ、ら、に、・・・

ここからはリスクもあるのでギャンブル的な要素もありますが、これくらいならグーグルのプログラムにばれないかな?

なんて、考えてみる!

 

サイトの内容やデザインなどで悩んだときには、ユーザーはどういう内容やデザインなら気にって満足してくれるかな?

と考えてみる!

 

こんな風に、対処してみてはいかがでしょうか?

ちなみに私はこういう判断基準でカラミーショップで、月商300万円達成しました!

あまり世の中の情報に惑わされずに、核の部分はシンプルに考えるとうまくいくと思いますよ~!

コメントを残す