文档介绍:搜索引擎算法
1: 搜索引擎算法定义
获得网站网页资料,建立数据库并提供查询的系统,我们都可以把它叫做搜索引擎。搜索引擎的数据库是依靠一个叫“网络机器人(crawlers)”或叫“网络蜘蛛(Spider)”的软件,通过网络上的各种链接自动获取大量网页信息内容,并按一定的规则分析整理形成的。Google、百度都是比较典型的搜索引擎系统。为了更好的服务网络搜索,搜索引擎的分析整理规则---即搜索引擎算法是变化的。
2:某搜索引擎排名的计算公式
*leScore = (KW Usage Score * ) + (Domain Strength * ) +(Inbound Link Score * ) + (User Data * ) + (Content QualityScore * ) + (Manual Boosts) –(Automated & Manual Penalties)
翻译:
*分数=()+()+()+()+()+(人工加分)-(自动或人工降分)
3: 公式中的因子分析
从公式中我们可以清楚的知道,影响pagerank分数的因素依次是“相关关键词”、“域名”、“外链”、“用户数据”、“内容质量”以及“人工干预”六个方面。
:关键词分数
(h1-h6)中关键词的处理
:域名权重
、给出链接的相关度
、链接形式
:外链分数
(PR或其他参数)
:用户数据
(SERPs)的点击率
*可以监测到的数据(工具条、GA等)
:内容质量分数
:人工干预
.*投票人员干预
(扣)分
搜索引擎蜘蛛基本原理
1:基本概述
搜索引擎蜘蛛即Search Engine Spider,是一个很形象的名字。把互联网比喻成一张蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。搜索引擎蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网,那么搜索引擎蜘蛛就可以用这个原理把互联网上所有节点的