搜索引擎判断网站是否作弊的原理分析(二)

  承接搜索引擎判断网站是否作弊的原理分析(一)

广州SEO陈永继续为大家分析信任传播模型、不信任传播模型及异常发现模型3个代表算法,它们分别是TrustRank算法、BadRank算法和SpamRank算法。

  我们先详细介绍TrustRank算法

  TrustRank算法属于信任传播模型,基本遵循信任传播模型的流程,即算法流程如下两个步骤组成。

  步骤一:确定值得信任的网页集合

  TrustRank算法需要靠人工审核来判断某个网页应该被放入网页集合,考虑到人工审核工作量大,所以提出了两种初选信任网页集合的策略,在初选集合基础上再由人工审核。

  *初选策略1:高PR分值网页,即认为高PR得分的网页是可信赖的,所以可以对网页计算PR值后,提取少量高分值网页作为初选页面集合。

  *初选策略2:逆PR(Inverse PR),在pr计算过程中,是根据网页入链传入权值计算的,逆PR与此相反,根据网页的出链传出的权值计算,即先将网页之间的链接指向关系反转,选取的分较高的一部分子集作为初选页面。

  步骤二:将信任分值从白名单网页按照一定方式传播到其他网页

  在这个步骤,TrustRank算法的信任传播方式基于以下两个假设。

  假设1:距离可信网页越近越值得信任,这里的距离指的是通过多少步链接转可以通达。

  假设2:一个高质量网页包含的出链少,那么被指向的网页的是高质量网页的可能性越小。

  所谓信任衰减,即距离可信网页越远的网页,通过传播得到的信任分值越小。

  所谓信任值均分策略,即将网页获得的信任值按照出链个数平均分配,如果一个网页有K个出链,则每个出链分配到1/k的信任分值,并将分值传递给出链。

  通过结合以上两个传播策略可以再页面节点图之间传播信任分值,在最后的计算结果中,低于一定信任度的页面会被认为是作弊网页。

  先分析这里,搜索引擎判断网站是否作弊的原理分析(三)将为大家讲解BadRank算法,具体可以到我的博客(http://www.30ly.com)了解。

  本文原创于广州SEO陈永博客http://www.30ly.com/?p=205

  转载请加上转载地址 

时间: 2024-12-04 16:49:36

搜索引擎判断网站是否作弊的原理分析(二)的相关文章

搜索引擎判断网站是否作弊的原理分析(三)

广州SEO陈永继续为大家讲解搜索引擎判断网站如何判断网站是否作弊的原理,上节讲解完TrustRank算法,这一节将详细讲解BadRank算法. BadRank据传是Google采用的反链接作弊算法.它是一种典型的不信任传播模型,即首先构建作弊网页集合,之后利用链接关系来讲这种不信任分值传递到其他网页. BadRank包含的基本假设是:如果一个网页将其链接指向作弊页面,则这个网页也很可能是作弊网页:而如果一个网页被作弊网页指向,则不能说明这个网页是有问题的,因为作弊网页也经常将其链接指向一些知名网

搜索引擎判断网站文章内容是否原创的原理

现在大多数网站访问者都来自于搜索引擎,要想访问人数多.被更多的人认知,最主要的是要被各大搜索引擎收录更多的条目,并且排名尽可能的靠前.那么要怎么做才能让搜索引擎快速收录网站内容且排名靠前呢?小编之前已经讲过企业网站建设完成后如何做好网站的搜索引擎优化及推广,那么今天小编将跟大家探讨一下原创内容. 首先需要明确一个概念:网络上的搜索引擎判断的原创可以理解为是第一次在网络上出现的内容,也就是网络上没有出现过的内容即服务器数据库索引里没有的内容. 那么搜索引擎对于原创的判断是如何进行的呢?搜索引擎的蜘

浅谈影响搜索引擎收录网站内容的四大原因分析

最近网站内容收录实在是不理想,简单分析了一下原因作了一份报告提交给自己上司,那么这份报告呢,也做一份写作,相信的写一些影响搜索引擎收录网站的内容吧,毕竟有的网站内容迟迟不会收录,那么这里呢,肯定是有原因的. 一:网站域名权重 在我们网站之中,site数据的时候,总是看到远远小小本身网站内容的数据,有一种情况造成了这种现象,那就是域名权重,我常说域名权重很重要,在百度排名之中占据了很重要的位置,所以你的域名权重降了,被打进了沙盒,那么可能有以下的情况,网站当天收录,然后第二天删除,或者明明看见蜘蛛

搜索引擎如何判断网站seo作弊

最近百度大更新,对seo进行了很严格的考察,很多的站被降权,site:不在第一位,网站快照后退的现象,我的站虽然没有很严重的现象,但是很多关键词排名也有所下降,最近几年我的一些关键词一直保证在前三位,现在突然掉了很多,有人说是日常的操作不规范,有的说大量的转载造成的,有的也说是百度近期调整,过一阵就好了,无论是哪种原因,为什么有的网站排名没有变化,有的排名还有所提升,原因还在我们自身,肯定和优化有着关系,可能外部链接的建立也存在一些问题,但是还是先从自身抓取,我感觉我的站,就有些作弊的嫌疑,下面

利用客户端缓存对网站进行优化的原理分析第1/2页_php技巧

很多人首先会想从服务器缓存方面着手对程序进行优化,许多不同的服务器缓存方式都有他们自己的特点,像我曾经参与的一些项目中,根据缓存的命中率不同使用过 Com+/Enterprise Libiary Caching/Windows服务,静态文件等方式的服务器端缓存和 HTTP Compression技术,但客户端缓存往往却被人们忽略了,即使服务器的缓存让你的页面访问起来非常地快,但她依然需要依赖浏览器下载并输出,而当你加入客户端缓存时,会给你带来非常多的好处.因为她可以对站点中访问最频繁的页进行缓存

深入掌握Java技术EJB调用原理分析二

Home接口的Weblogic实现类的stub类 ((Hello Bean))_HomeImpl_WLStub(部署的时候动态生成字节码) Home接口的Weblogic实现类的skeleton类 ((Hello Bean))_HomeImpl_WLSkeleton(部署的时候动态生成字节码) Remote接口:Hello (用户编写) Remote接口的Weblogic实现类 ((Hello Bean))_EOImpl(EJBC生成) Remote接口的Weblogic实现类的stub类 ((

搜索引擎在网站关键词排名上注重什么

摘要: 大家都知道搜索引擎的规则不断的在变化.可是否在变得更加强大呢?这个问题值得再三思考.前段时间世界最好的搜索引擎google,突然收购了motorola,125亿美元的天价,我们普通老百姓 大家都知道搜索引擎的规则不断的在变化.可是否在变得更加强大呢?这个问题值得再三思考.前段时间世界最好的搜索引擎google,突然收购了motorola,125亿美元的天价,我们普通老百姓是想都不敢去想的.可google为什么会收购motorola呢?难道搜索引擎的技术已经到了极端了吗?还是说电器在未来的

剖析SEO:搜索引擎对网站SEO优劣的判断标准

搜索引擎优化始终都是站长们最热衷的话题,而类似相关的网站也层出不穷.看这各式各样的教程心得铺天盖地的便不互联网.然而每一个网站的优化都有一个属于自身的方案,类型不同可能面对的优化位也有所不同,那些东西真的适合自身吗?不得不说其中一些教程可以起到不错的效果,但是站长,清晰认识到其原因的又有多少呢?我们看中的不仅仅是过程和结果,更因从原因入手分析搜索引擎对网站优化的判断标准.清晰的认识到究竟是哪些因素影响着网站排名,从而进行最大限度的对网站进行优化来"讨好"搜索引擎. 在分析网站SEO优劣

搜索引擎如何判断网站的用户体验度

不知道一些站长会不会像我一样好奇搜索引擎是如何来判断网站的用户体验度,在这个内容为王,用户体验为皇的年代,搜索引擎怎么就知道网站的用户体验度,搜索引擎是机器,不是人,不可能感受到用户体验,究竟如何来判断呢?笔者分析了一下,总结了一些搜索引擎判断的依据,下面是笔者个人的观点. 跳出率和平均访问时长 使用统计工具,可以很清楚的了解到用户访问网站的跳出率和平均访问时长,跳出率越高,访问时间就越短,说明用户就越不喜欢你的网站,好的网站用户会访问的时间长,搜索引擎认为用户跳出的越快,这个网站用户体验越不好