Webの情報の信頼性っていうものについて考える機会があったので、基本的な部分だけ雑記として残してみる。
世の中のサイトの「アクセス数」とかをランキングアルゴリズムに導入するのは適当ではない。
世の中にはあまりにもBOTが大量にありすぎて、アクセスした主が人なのかBOTなのか分からない。もちろんBOTがブラウザを模倣しているから分かりにくい、とか、そういう不透明さの問題ではなく、アクセスされたプロバイダ(アプリケーションサービスプロバイダ以下ASP)側の情報開示の問題。
ASPによってアクセス数のカウントの仕方がによってまちまちで、例えば1日9,000千件BOTがアクセスしてきて、人が1,000件アクセスしてきたとしても10,000アクセスであると定義される場合もあれば、BOTを排除して計算しているASPであれば1,000件と定義する場合もある。
後者の方が健全なんだけど、そういう健全なASPが少ないのも事実だし、健全な行動をすると結局は敗者になってしまう。
ようするに、「このサービスは月間1万アクセスで業界一位!」とうたっていてもそれだけでは何の証明にもならんわけだ。。
そういう意味では検索エンジンを介したアクセス数とか、リンク構造とかソーシャルブックマークの件数とか、そういう方が信頼できるのかなぁ。ソーシャルブックマークも結構BOTに汚染されてたりするんだろうか。。
0 件のコメント:
コメントを投稿