1 / 3
文档名称:

搜索引擎算法及蜘蛛原理.docx

格式:docx   大小:28KB   页数:3页
下载后只包含 1 个 DOCX 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

搜索引擎算法及蜘蛛原理.docx

上传人:xunlai783 2018/4/28 文件大小:28 KB

下载得到文件列表

搜索引擎算法及蜘蛛原理.docx

相关文档

文档介绍

文档介绍:搜索引擎算法
1: 搜索引擎算法定义
获得网站网页资料,建立数据库并提供查询的系统,我们都可以把它叫做搜索引擎。搜索引擎的数据库是依靠一个叫“网络机器人(crawlers)”或叫“网络蜘蛛(Spider)”的软件,通过网络上的各种链接自动获取大量网页信息内容,并按一定的规则分析整理形成的。Google、百度都是比较典型的搜索引擎系统。为了更好的服务网络搜索,搜索引擎的分析整理规则---即搜索引擎算法是变化的。
2:某搜索引擎排名的计算公式
*leScore = (KW Usage Score * ) + (Domain Strength * ) +(Inbound Link Score * ) + (User Data * ) + (Content QualityScore * ) + (Manual Boosts) –(Automated & Manual Penalties)
翻译:
*分数=()+()+()+()+()+(人工加分)-(自动或人工降分)
3: 公式中的因子分析
从公式中我们可以清楚的知道,影响pagerank分数的因素依次是“相关关键词”、“域名”、“外链”、“用户数据”、“内容质量”以及“人工干预”六个方面。
:关键词分数

(h1-h6)中关键词的处理



:域名权重



、给出链接的相关度
、链接形式
:外链分数


(PR或其他参数)


:用户数据
(SERPs)的点击率


*可以监测到的数据(工具条、GA等)
:内容质量分数




:人工干预
.*投票人员干预
(扣)分

搜索引擎蜘蛛基本原理
1:基本概述
搜索引擎蜘蛛即Search Engine Spider,是一个很形象的名字。把互联网比喻成一张蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛。搜索引擎蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。如果把整个互联网当成一个网,那么搜索引擎蜘蛛就可以用这个原理把互联网上所有节点的