サーチとクレームとSPAM
過去にはいろいろと覇を競っていたサーチ・エンジンも、現在では、Googleが事実上のスタンダードになった。 これも、検索可能なページのデータが多いこと、マッチした付近のパラグラフが表示されること、キャッシュの閲覧が可能なことといった、他のサーチ・エンジンに対する確固たる優位性の結果だったのだろう。 「「ネットの未来」探検ガイド」の回で取り上げた明るい話の一方で、インターネットは巨大になりすぎて、有用なサーチ・エンジンのサービスを提供するには、サーバのハード、ソフト、メンテナンスと莫大なコストがかかるようになっているという現実がある。
ところで、ほとんどみんなが同じサービスを利用するようになれば、そのサービスの特性を分析して、こまやかにチューニングするような技術が、大きな意味を持ってくる。 実際、昨年はサーチ・エンジン(主にGoogle)で検索結果を上位に上げる手法、SEO(サーチ・エンジン最適化)が一部の業界ではホットな話題だった。 そして、SEOを請け負ったりする会社が現れたり、その方法を解説した書籍が出版されたりするようにもなった(さっき、Amazonで「SEO」をサーチしてみたら、6冊ほどマッチ)。
いやあ、ちょっと前までは、サーチ・エンジンで上位にランクされるようにと、HTMLのMETA要素にちまちまとキーワードを書き並べたり、NetscapeやIEを使ったときには不可視な情報をHTMLにたくさん書き込んだりしていた光景も、だんだんと変わってきたんだね・・・。
・・・そんなことを、スラッシュドット ジャパンの「Google Japanがクレームのあった検索対象を結果から除外」を読んで考えていた。 この記事によると、悪徳商法などに関する老舗一大情報サイト「悪徳商法? マニアックス」の一部のページが、Google.co.jpで「悪徳商法」による検索結果に現れなくなったとのこと(参考: 「googleから、削除された理由(わけ)」)。
これが、インパクトを持っているのも、現在のサーチ・エンジンの一極集中の状況があるからだろう。 たとえば、「情報発信者」←→「情報利用者」というタイプのP2Pの検索サービス、あるいは検索にはネットにつながっているコンピュータを分散利用しつつ、ランク付けやフィルタリングのアルゴリズムは検索者自身でコントロールできるような検索サービスが実現できるとおもしろいかもしれない。
・・・いや、しかし、そうすると、今度は検索情報に大量のSPAMを流す連中が出てくるかもしれない。 そうだ、考えてみれば、そのうちウェブログのPingサーバの記事のタイトル欄だって、現在のメールの状況のように、SPAM業者の「Viagra」だ「increase」だ「young」だのいう広告で埋まってしまうかもしれないじゃない・・・。
| 固定リンク
この記事へのコメントは終了しました。
コメント