今開いているページ:<ホーム><SEO対策><SEO-001>
●SEO対策の「トップ」へ ●SEO対策の「SEO-002」へ  ●SEO対策の「SEO-003」へ

■ A ユーザーは検索エンジンを通して入ってくる

 分からない言葉を調べたりネットショップで買い物をする場合など、初めて訪問する サイトへの入り口になるのは大半がGoogleやYahooなどの「検索サイト」からです。 多くのユーザーはこれらの検索結果を通して自分の目的とするWebサイトへやってきます。

 初めて訪問するサイトへの入り口に検索エンジンが利用される割合は80%〜90% とも言われ、 新規のユーザーを自社のWebサイトに誘導するためには、検索結果の上位にそのサイトが 表示されることが非常に重要な要因となってきます。 そして、多くの場合、 ユーザーから訪問を受けることのできるページは、検索結果の1ページ目から2ページ目 程度までと言われます。

 このことから、キーワード検索において検索結果の上位表示を獲得することは、 特にネットショップにおいて新規顧客を獲得する上から非常に重要なことであると言えます。


■ B 訪問者は検索の結果、Webページ内のどのページから入ってきたか?

 検索エンジンからの来訪者の多くは、検索の結果Webサイト内のトップページからではなく、 奥深い階層に置かれたページから直接入ってきます。 初めての来訪者はそのサイトに 不慣れなユーザーであり、加えて大切な見込み客でもあります。

 その不慣れなユーザーがトップページではなく、奥深い階層に置かれたページから入って くるのですから、Webサイトの使命として、これらのユーザー(見込み客)に対して親切な サイトであることが強く要求されます。 いわゆるそのサイトが如何に使いやすいか、 と言ったユーザビリティーが高いレベルで確保されなければなりません。

 検索エンジンからのユーザーはその不慣れなサイト内で情報を探しているわけですから、 ユーザーにとって情報が発見しやすく、又容易に理解できるような形で提供されるように、 サイト全体が構築されていなければなりません。

 ネットショップのSEO対策としては検索エンジンを通して集客するだけではなく、 ユーザーを(十分納得が行くまでサイトにつなぎとめておくこと)の出来ることが、 強く求められることになります。


■ C 二種類の検索エンジン

 一般に良く使われている ヤフー(Yahoo)や グーグル(Google)等といった検索エンジンは、ユーザーから見ればどれも同じ(インターネット上にあるWebサイトを探し出すことができる)サービスです。 何れの検索エンジンを使う場合でも、検索ボックスに今自分が探したい情報のキーワードを入力して検索します。 その結果キーワードに関するたくさんのWebサイトがリストアップされることになります。

==人間が収集した情報と ロボットが収集した情報==

【検索エンジンは大きく分けると「ディレクトリー型」と「ロボット型」に分けられます。】

◆ ディレクトリー型に分類される検索エンジンは、掲載する情報はすべて人の手によって収集され、カテゴリー別に分類した上で掲載されます。

◆ ロボット型検索エンジンは、クローラー(スパイダー)と言うプログラムのソフトウェアを利用して、インターネット上に存在する無数のWebページの情報を自動的に収集して索引(インデックス)を作成し、ユーザーに検索しやすい仕組みを提供します。


 つまり、「ディレクトリー型」は人間の手によって構築された検索エンジンであり、「ロボット型」はソフトウェアによってWebデータが自動収集され構築された検索エンジンということです。

 検索エンジンによって、どちらの仕組みを採用しているかは違ってきます。 現在よく利用されている検索エンジンであるグーグル(Google)並びにヤフー(Yahoo)は、それぞれ下記の形態をとっております。又、検索エンジンを利用する人の90%近くの人が、この内のどちらかを使って検索していると言われます。

※ グーグル(Google)・・・ロボット型検索サービス
※ ヤフー(Yahoo)・・・・・ディレクトリー型とロボット型を併用

 一般的にSEO対策といった場合、この2種類(ディレクトリ型、ロボット型)の検索サービスの内、ロボット型検索エンジン を使い検索順位を上げるための対策を言います。ヤフー&グーグルを使った検索の結果で如何に上位にヒットするかが、まずは第一のSEO対策ということになります。

 そのためには、ロボット型検索エンジンのプログラム「クローラー(Crawler)」にそのウェブページを拾ってもらわなければなりません。


● クローラーについて

 クローラーとは、ウェブサイト上の文書や画像などを周期的に収集取得し、自動的にデータベース化するプログラムのことを言います。例えば、Google では「スパイダー」というソフトウェアを使用して定期的にWebをクロールし、キャッチしたWebサイトをインデックスに登録しています。

 基本的には自分のウェブサイトが他のサイトからリンクが張られていれば、自動的にクローラーに収集されることになりますが、新規にアップしたWebサイトであれば「サイト登録」 をすることにより、クローラーにより早く見つけて貰うことができ、Google Yahoo 共に「サイト登録」のページが用意されております。

 ただし、サイト登録をしても自社のWebサイトが他のWebサイトからリンクが張られていなければ、検索エンジンの索引(インデックス)に登録されることはありません。

クローラーとは 全文検索型サーチエンジンの検索データベースを作成するために、世界中のありとあらゆるWebページを回収するプログラム。

 全文検索型サーチエンジンでは、Webページの内容をサーチエンジン側のデータベースに保存しておき、検索要求があった時にはそのデータベースを検索して結果をはじき出している。

 検索ロボットはこのデータベースの内容を充実させたり点検したりするプログラムで、まだデータベースに収録されていないWebページや、更新されたWebページを発見しては内容を回収し、結果をデータベースに反映させている。

 検索ロボットがページを探し出す手段や、検索の対象とするファイルの種類はさまざまである。検索ロボットによってはテキストファイルやPDFファイル、ExcelやWordなどで作成した文書ファイルも回収していく。 このため、適切なアクセス権の設定等を怠ったために企業の機密文書が検索可能になってしまったという事故も見られる。

〔IT用語辞典 e-Wordsより〕

SEO対策のトップへ

=【SEO対策】=

<ホーム>

情報リテラシー研究会

情報 Literacy〔No,1〕

情報 Literacy〔No,2〕

情報リテラシー〔No,3〕


 Book Mark