【コンテンツマーケッター必見】検索エンジンとSEOの歴史

category :  EC売上UP

update :  2018/07/24(火)

staff :  とだとだ

皆さんはSEOについてどのようなイメージがありますか? SEOについて考えていく上で必要な視点は「ユーザーの利便性を上げていく」という視点です。 検索結果をよりユーザーの求めるものに近づけるために、日進月歩で技術革新が行われております。 今や当たり前となったSEO対策。この歴史を3分で紐解いていきましょう。

検索エンジンの変遷

SEOと検索エンジンの歴史を語る上で、最も重要なターニングポイントといえば、Googleの登場です。 GoogleがライバルであるYahoo!やMicrosoftに検索エンジン競争で圧倒的勝利を収めることができたのには理由があります。

それはGoogleが最初からユーザーの利便性に焦点を絞り、毎年1兆円単位という莫大な研究費を集中投入し、今のSEOの礎を築いたからにほかなりません。

では、Googleの登場前のSEO対策とはどうだったのでしょうか。

ディレクトリ型の登場

最初の検索エンジンが1990年頃に登場して以来、利用者は一部に留まっていました。

しかし、数年後にYahoo!やExcite、Infoseekなどが続々と登場すると、このジャンルの市場は急成長していきました。 各社は主な検索エンジンとして「ディレクトリ型」と呼ばれる、人間が手作業で審査をして、ひとつひとつサイトを登録する方法を採用しました。

これはWebサイトのリンクを分野ごとに手動で分類したリンク集のようなポータルサイトをつくり、 ユーザーは自分が見たいカテゴリーを選択し、自分の見たいWebサイトを見つけるやり方です。

今ではあまり見なくなりましたが、現在でもガラケーでネットを見るときは、このやり方に近いです。

この方法は審査に多大な時間とお金が掛かり、効率的とはいえませんでした。

しかし、それでもほかのものと比べて情報の精度が高いことから、Yahoo!は多くのユーザーから信頼を得て、 インターネットのホーム画面といえばYahoo!というイメージになるほどのステータスを勝ち取りました。

しかし、これに待ったをかけたのがGoogleです。

ロボット型の登場

情報精度の高さよりシェアを拡大したいYahoo!のディレクトリ型。 これに待ったをかけたのがご存知Google

Googleは「世界中に溢れている情報を1つにまとめる」をコンセプトに掲げ、 今では主流となったクローラやスパイダーと呼ばれるボットで、 Webサイトを効率的に収集する「ロボット型」の検索エンジンを採用しました。

これにより、今まで手動で行っていた作業を自動化することに成功。 ローコストで短時間に大量のWebサイトを登録することが可能になり、急激にシェアを伸ばしていきました。

より複雑な検索アルゴリズムの登場

ロボット型の検索エンジンを取り入れたGoogleがシェアを拡大していった背景には、 よりユーザーが求める情報を表示させられるようにシステムを構築していったことが大きく関係しています。

外部被リンクを重視

Googleは「引用されるページには価値がある」との見解から、被リンクを高く評価したアルゴリズムを作成しました。

ほかの人が見て人に薦めたくなるページは価値がある、だったら検索順位を高くした方がいいという考え方です。 「たくさんの人が薦めているのならいい情報が載っている」とし、 検索順位を上げるというこのアルゴリズムはあっという間に広がりSEO対策の必須項目となりました。

いわゆる「被リンクSEO」と呼ばれるものです。

しかし、リンクを張るためだけのページを大量に用意し、検索順位を上げたいWebサイトのリンクを張り合うことで検索順位を上げるという対策を行うものが多く現れました。

中には1人で数千、数万のサイトを構築する者も現れるほどに。

本来、きちんと運用されているWebサイトが引用するWebサイトには価値があるため、このようなアルゴリズムが生まれました。

しかし、リンクを張るために作られたWebサイトにリンクを張られても何も意味がありません。 当初の「引用されるページには価値がある」という見解からの逸脱です。

コンテンツ重視への変更

被リンクによるSEO対策に対抗するため、Googleは2011年に「パンダアップデート」という大きなアルゴリズム変更を行いました。 他サイトからコピペしただけのページや、自動生成された内容の薄いページを一気に削除しました。

翌年にはペンギンアップデートというアルゴリズム変更を行いました。 相互リンクなどの一世を風靡したサイト群は、低品質ページからの被リンクが多い低品質サイトとしてみなされます。 それにより、検索結果のランキング圏外に追いやられていきました。

これらのアップデートにより、SEO対策は外部被リンク中心の対策から、コンテンツ中心の対策に移行していくことになります。

これは、有益な情報を配信しているサイトはユーザーにとって有益なサイトだという考え方です。 そのため、Webサイトのコンテンツ量を増やしていくことが大切だとされていきました。

今現在、「ハミングバード」と呼ばれるアルゴリズムが中心になってきています。 これはGoogleが文脈を理解して、ユーザーの検索するキーワードに近い文章を、上位表示するものです。 コンテンツの量から、コンテンツの質が求められる時代の到来です。

今後の展望

現在、ユーザーの検索の行い方に大きな変化が訪れています。 音声検索の登場です。

音声検索というのは、iPhoneのSiriが最も有名ですが、画面を使わないで検索をする方法です。

現在の音声検索の利用率は20%を超え、10年以内に40%を超えるという予測があります。 AIスピーカーの登場もその流れのひとつでしょう。

音声検索は、人工知能が会話形式で答えるため、検索結果はある程度絞られてきます。

もし実際そのようになった場合、ユーザーと検索エンジンとの関係性が今とは違う形になっていきます。 それが主流となるのはまだ少し先になるため、どのような結果をもたらすかはまだ想像の範囲を超えません。

しかしながら、ユーザーにとって利便性の高いWebサイト作りを意識していれば、次の段階に入った際も対応できるはずです。 あくまで、ユーザー目線での使いやすさを追求していくことこそが、今後のSEO対策の近道でしょう。

toda

この記事はとだとだが書きました

SNSでシェアする