防止网站被采集的理论分析以及十条方法对策第1/2页

相同点:

a. 两者都需要直接抓取到网页源码才能有效工作,

b. 两者单位时间内会多次大量抓取被访问的网站内容;

c. 宏观上来讲两者IP都会变动;

d. 两者多没耐心的去破解你对网页的一些加密(验证),比如网页内容通过js文件加密,比如需要输入验证码才能浏览内容,比如需要登录才能访问内容等。

不同点: 

       搜索引擎爬虫先忽略整个网页源码脚本和样式以及html标签代码,然后对剩下的文字部分进行切词语法句法分析等一系列的复杂处理。而采集器一般是通过 html标签特点来抓取需要的数据,在制作采集规则时需要填写目标内容的开始标志何结束标志,这样就定位了所需要的内容;或者采用对特定网页制作特定的正则表达式,来筛选出需要的内容。无论是利用开始结束标志还是正则表达式,都会涉及到html标签(网页结构分析)。

然后再来提出一些防采集方法

1、限制IP地址单位时间的访问次数

分析:没有哪个常人一秒钟内能访问相同网站5次,除非是程序访问,而有这种喜好的,就剩下搜索引擎爬虫和讨厌的采集器了。

弊端:一刀切,这同样会阻止搜索引擎对网站的收录

适用网站:不太依靠搜索引擎的网站

采集器会怎么做:减少单位时间的访问次数,减低采集效率

2、屏蔽ip

分析:通过后台计数器,记录来访者ip和访问频率,人为分析来访记录,屏蔽可疑Ip。

弊端:似乎没什么弊端,就是站长忙了点

适用网站:所有网站,且站长能够知道哪些是google或者百度的机器人

采集器会怎么做:打游击战呗!利用ip代理采集一次换一次,不过会降低采集器的效率和网速(用代理嘛)。

3、利用js加密网页内容

Note:这个方法我没接触过,只是从别处看来

分析:不用分析了,搜索引擎爬虫和采集器通杀

适用网站:极度讨厌搜索引擎和采集器的网站

采集器会这么做:你那么牛,都豁出去了,他就不来采你了

4、网页里隐藏网站版权或者一些随机垃圾文字,这些文字风格写在css文件中

分析:虽然不能防止采集,但是会让采集后的内容充满了你网站的版权说明或者一些垃圾文字,因为一般采集器不会同时采集你的css文件,那些文字没了风格,就显示出来了。

适用网站:所有网站

采集器会怎么做:对于版权文字,好办,替换掉。对于随机的垃圾文字,没办法,勤快点了。

5、用户登录才能访问网站内容

分析:搜索引擎爬虫不会对每个这样类型的网站设计登录程序。听说采集器可以针对某个网站设计模拟用户登录提交表单行为。

适用网站:极度讨厌搜索引擎,且想阻止大部分采集器的网站

采集器会怎么做:制作拟用户登录提交表单行为的模块

6、利用脚本语言做分页(隐藏分页)

分析:还是那句,搜索引擎爬虫不会针对各种网站的隐藏分页进行分析,这影响搜索引擎对其收录。但是,采集者在编写采集规则时,要分析目标网页代码,懂点脚本知识的人,就会知道分页的真实链接地址。

适用网站:对搜索引擎依赖度不高的网站,还有,采集你的人不懂脚本知识

采集器会怎么做:应该说采集者会怎么做,他反正都要分析你的网页代码,顺便分析你的分页脚本,花不了多少额外时间。

当前1/2页 12下一页阅读全文

时间: 2024-10-25 23:53:30

防止网站被采集的理论分析以及十条方法对策第1/2页的相关文章

[原创]防止网站被采集最有效的三种方法

网站|原创|防采集 总结了一下,有三种实用的方法. 1.文章头尾加随机广告..2.文章列表加随机不同的链接标签,比如<a href="",<a class="dds" href=''3.正文头尾或列表头尾添加<!--重复特征代码--> 第一种防采集方法:下面我详细说一下这三种方法的实际应用: 如果全加上,绝对可以有效的防采集,单独加一种就可以让采集者头疼..完全可以对付通用的CMS采集程序.. 在采集时,通常都是指定头尾特征从哪到哪过滤.这里

seo优化-网站快照不更新原因分析和解决方法

(二)网站内容更新和原创率:找到了直接原因还要找找其他漏洞,我的站一直采取70%伪原创+25%原创+一些采集的政策,和坚持2.3天更新一次的频率,现在处于特殊时期,就要加强手段,现在变成40%伪原创+60%原创,不知道其他人是怎么写的原创内容,我是一个字一个字的拼出来的,并坚持1.2天一更新,希望这良好的态度会使百度重新接受我的站. (一)网站服务器:网站服务器稳定与否直接关系到百度对站的信用评价,网站服务器的不稳定使网站突然打不开的索导致的直接后果就是百度对站的评价变低,一次两次还好,如果蜘蛛

老网站排名突然丢失原因分析及解决方法

中介交易 SEO诊断 淘宝客 云主机 技术大厅 在2013年12月份,笔者手里有几个企业网站排名突然排名丢失.当时不知道什么原因,网站一直用心更新有价值的内容,外链也正常建设,怎么排名一夜之间解放了呢?同样也有很多朋友也遇到这种情况. 在这里我们谈的是网站没有作弊,正常白帽优化的网站,遇到突然丢失,不要着急,我们要静观其变.分析出其原因,方能找到解决方法,尤其是新手朋友,还不知道什么原因就开始乱投医,对应老站优化平时工作情况自己是最清楚.所以自己要分析出原因来. 根据笔者近日经验来看,如果您的网

如何让网站防采集?

网站|采集 很多防采集方法在施行的时候需要考虑是否影响搜索引擎对网站的抓取,所以先来分析下一般采集器和搜索引擎爬虫采集有何不同. 相同点: a. 两者都需要直接抓取到网页源码才能有效工作, b. 两者单位时间内会多次大量抓取被访问的网站内容; c. 宏观上来讲两者IP都会变动; d. 两者多没耐心的去破解你对网页的一些加密(验证),比如网页内容通过js文件加密,比如需要输入验证码才能浏览内容,比如需要登录才能访问内容等. 不同点: 搜索引擎爬虫先忽略整个网页源码脚本和样式以及html标签代码,然

几招让你的网站免受采集之苦

如今的采集系统是一个比一个NB,站长们辛苦收集制作的网站内容总是很快出现在在另一个网站上,一个网站轻易的就被复制了又复制.有办法既不影响搜索引擎的正常收入又能解决网站被采集之苦么?答案是肯定的.     最常用的防采集方法:     1.每个文章的命名不要有任何规律,比如你的文章是<%=id%>.htm的话,请在前面或后面生成个日期,如:20070911-1234.htm,前面的就是日期了,这样对采集新手来说是非常有效的.     2.不要把所有的文章都放在一个目录下,你可以利用日期生成不同的

流浪诗人:网站SEO三级关键词理论

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 大家在看到这个题目的时候,也许会觉得匪夷所思.什么是网站SEO三级关键词理论呢?关键词跟三级有什么关系呢?其实,我这里要讲的是关键词的选择.分析和监测的循环的网站关键词优化原理. 流浪诗人在这里把网站的关键词分为三级:主关键词.二级目录关键词和长尾关键词. 一.网站的主关键词,如:一个旅游网站,它的整站主关键词可能会是XX旅游.XX景点.XX

高排名网站和页面内容的分析

东方博大分析高排名网站,尤其是那些在你的行业中高排名的网站有很多原因.他们可能是你的竟争对手网站,这就足够成为研究他们在做什么的原因.但是即使他们不是,了解他们做了什么事,看看这些事怎样帮他们获得好的排名也很有帮助.有了这个信息,你能更好地决定怎样给你的网站制定策略. 回顾一些有兴趣的指标,以及怎样得到数据. 1.从一个简单的商业分析开始,看看一个特定公司的业务与你的或同行业其他高排名的网站有什么交叉.知道谁在直接竟争.谁间接竟争很有帮助. 2.找出网站从哪年开始,这对评估网站能量很有帮助.确定

中秋节后我们应该如何对于网站进行全面seo优化分析

中秋节三天假期眨眼即逝,今天是上班的第一天了,笔者相信节日期间很多站长还是坚守阵地,但是据笔者所知绝大多数朋友,都放假休假休息了,也就是这几天网站几乎都处于停滞状态,笔者也是其一,早上过来一如既往的打开网站,就思索着写这样一篇文章,分享节后我们究竟应该对于网站哪些数据进行有效的分析,好了,闲话短续我们进入正题. 第一,分析网站的关键词排名情况.一般这个是很多seoer每天可能必做的工作,但是节后我们更要绷紧这根玄,我们需要分析的是自己所负责网站的核心词在各个搜索引擎的排名情况,辅助关键词的排名情

案例分析:网站首页被K的原因以及处理方法

最近,群里的一个朋友的两个网站的首页都被K了,如果是一个网站出现这样的情况的话,我们可以讲是百度抽风了.但是,同一个人操作的两个不同的网站都出现相同的情况.那么,可以肯定,一定是朋友在优化过程中出现了问题. 首页被K其实是百度给我们的一个小小的警告,告诉站长朋友们,你违规了,请遵守游戏规则,如果置之不理的话,那么接下来肯定就是整站被K了.如果首页被K我们可以理解为黄牌警告的话,那么整站被K就是直接红牌罚下了.今天,南京SEO谷旭旭就借助朋友的这个案例与大家聊聊网站首页被K的原因以及处理方法. 我