SEO怎样修复索引页更容易让搜索引擎抓取

  我看到几个常见的错误弹出。一个错误的想法,索引页,你应该阻止抓取路径。有意义的,对不对?如果你不想要的页面索引,为什么你会希望它爬?不幸的是,虽然这听起来合乎逻辑的,也是完全错误的。让我们来看看一个例子...

  例如:产品评论

  假设我们有一个体面的大型电子商务网站,与独特的产品1000页。这些网页看起来像这样:

  


 

  每个产品都有自己的URL页面,当然,这些网址如下结构:

  http://www.***.com/product/1

  http://www.***.com/product/2

  http://www.***.com/product/3

  http://www.***.com/product/1000

  现在让我们说,每个这些产品的网页链接到该产品的评论页:

  


 

  这些审查的网页也有自己的,独特的网址(并列产品ID),像这样:

  http://www.***.com/review/1

  http://www.***.com/review/2

  http://www.***.com/review/3

  http://www.***.com/review/1000

  不幸的是,我们刚刚剥离出1000个重复的网页,每次评审的页面是真的只是一种形式,有没有独特的内容。这些审查的网页有没有搜索价值,只是稀释我们的索引。因此,我们决定是时候采取行动......

  “修复”,第1部分

  我们希望这些网页了,所以我们决定使用noindex元(元机器人)标签。因为我们真的,真的要完全页面,我们也决定nofollow的审查链接。我们首次尝试修复结束,看起来像这样:

  


 

  表面上,它是有道理的。这里的问题,虽然 - 那些红色箭头正在削减路径,可能阻止蜘蛛。如果蜘蛛审查页面永远不会回去,他们永远也读了NOINDEX,他们不会去索引的网页。最好的情况下,它会需要很长时间(已去指数化的时间太长,对大型网站)。

  修复,第2部分

  相反,让我们离开路径(我们应遵循的链接)。这种方式,将继续爬虫访问的页面,重复审查的URL应该逐渐消失:

  


 

  坚持下去,在这个过程中仍然需要一段时间(周,在大多数情况下)。监视您的索引(在“site:”操作符)每日 - 你要找的随着时间的推移逐渐减少。如果这发生,你是在良好的状态。PRO提示:不要采取任何一天的“网站:”算太严重 - 它可以是不可靠的,不时。随着时间的推移的趋势看。以上内容由 www.guhele.com 饮食养生网在admin5首发,转载请保留网址,谢谢!

时间: 2024-08-22 14:36:32

SEO怎样修复索引页更容易让搜索引擎抓取的相关文章

提高网页被搜索引擎抓取、索引和排名的方法

首先通过下图看看通常网站的架构图:   典型的网站外链分布图 然后我们看看一个典型网站外链分布图:   爬虫抓取路径的优先级 下面要讲到一个被很多SEO们误解的重要概念.很久以前,搜索引擎的爬虫(机器人)大部分时间都会递归地抓取某个网站(通过你提交的网站首页网址,然后通过网页上发现的链接抓取这些链接所指向的网页,周而复始).但现在不是那么回事了,就像下面的图一样,搜索引擎的爬虫抓取时会有多个进入点,并且每个进入点都同样重要,然后再从这些进入点向外扩散,进行抓取.     搜索引擎爬虫抓取路径的优

了解robots.txt的用法 优化搜索引擎抓取和索引

通过给网站设置适当的robots.txt对Google和百度seo优化的作用是很明显的.WordPress博客网站也一样. 我们先看看robots.txt是什么,有什么作用? robots.txt是什么? 我们都知道txt后缀的文件是纯文本文档,robots是机器人的意思,所以顾名思义,robots.txt文件也就是给搜索引擎蜘蛛这个机器人看 的纯文本文件.robots.txt是搜索引擎公认遵循的一个规范文 档,它告诉Google.百度等搜索引擎哪些网页允许抓取.索引并在搜索结果中显示,哪些网页

尽量让搜索引擎抓取和索引更多内容

SEO们经常头疼的一个问题,没有收录.索引就无从谈排名.尤其对达到一定规模的网站来说,使网站充 分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计.多么优化,100%收录都是不可能的,只能尽量提高收录率. 但有时候怎么阻止搜索引擎收录也可能成为一个问题,最近越来越成为问题.需要阻止收录的情况如保密信息.复制内容.广告链接等.过去常用的阻止收录方法包括密码保护.把内容放在表格后面.使用JS/Ajax.使用Flash等.今天看到Google网管博客一篇文章,这些方法都不保

谷歌开发实时索引系统:数秒内抓取内容更新

北京时间3月4日上午消息,据国外媒体今日报道,谷歌正在开发一套系统,使得任何规模的网站发布者都能够向谷歌自动提交内容,从而使其内容在发布后几秒钟内被谷歌索引. 新的篇章 美国搜索引擎技术网站SearchEngineLand主编丹尼·苏利文(Danny Sullivan)认为,这将为谷歌掀开新的篇章. 谷歌PubSubHubbub(以下简称"PuSH")实时同步协议开发主管布伦特·斯拉特金(Brett Slatkin)去年秋天曾表示,他希望谷歌有朝一日能够用PuSH协议来索引网络内容,而

base64-网页显示了数据,抓取网页源码无法找到数据

问题描述 网页显示了数据,抓取网页源码无法找到数据 用java抓取某个网站登录后的数据,登录成功,但是貌似遇到数据加密,table里面的数据都是由js生成,而且我有看到有引用base64.js和rsa.js,研究了几天还是没办法抓取到数据,前辈们能不能给个指导路线,网址是http://dev.10086.cn/datau/modules/views/dataana.jsp 解决方案 fiddler先抓包,然后分析浏览器请求的参数和地址,在你的程序中照着做.

如何实现对固定页内面内容的自动抓取?

问题描述 现在做一个B/S的程序,想实现在后台能自动抓取别的网站的天气预报内容,然后插入到自己的数据库中,不知道自动抓取的时机是什么?最好是能设置一个时间,在此时间时,然后就抓取内容插入到数据库中.不要那种点一个按钮触发的,要完全自动的,就像服务一样的.也不要C/S的小程序,大家给提供点思路好不好?很急. 解决方案 解决方案二:百度搜索"webservice接口天气预报"解决方案三:客户要求的不用webservice,必须抓取那个网页上的内容.现在的问题在于不知道如何触发写的那个程序执

SEO策略:为网站更好地建设出高质量的链接

最近很多QQ咨询当中,提到一个问题:如何制作高质量的链接?也就是链接的权重问题.在搜索引擎优化工作中,古心神一直把链接的建设作为SEO策略当中的最重要的考虑因素之一,因此对链接的研究略有所感,结合网络上一些朋友的文字总结出一些经验,希望跟大家分享.链接建设分外部链接和内部链接两个部分,因此我将围绕这两个方面对SEO链接进行简单分析,让大家明白,影响链接权重的因素,为网站更好的建设出高质量的链接来. 1.链接关键字及其说明 通常我们做链接的时候,需要将特定的关键词作为链接文字,或者在链接文字中包含

seo下的内容页布局技巧

seo优化中,除了http://www.aliyun.com/zixun/aggregation/8475.html">反向链接,7478.html">内部优化也非常重要,而内部优化通常主要抓住的就是内部链接与页面布局结构,下面精灵就讲讲内容页布局上的seo优化技巧. 通常页面都由4部分组成 一般一个页面通常包括四部分,分别是:顶部header导航,内容部分,侧边导航,和底部footer. 如下图 顶部导航 我们看到上面黄色的部分,即为顶部导航,通常这里重要的是放置主栏目导

curl-网页抓取是什么,有什么作用呢?

问题描述 网页抓取是什么,有什么作用呢? 最近看php代码,很多牵扯到curl函数,感觉有点晦涩难懂,本人小白,求不喷 解决方案 就是从网页上获取数据.比如搜索引擎索引页面,抢票软件抓取网上是否有票的信息,中介从各种网站找广告,零售商获得对手的价格等等. 解决方案二: curl是一个工具 它可以发送各种http 请求等给网站 然后获取网站的返回内容再来分析获取感兴趣的数据 这样才达到了爬虫的目的 解决方案三: 你可以百度下网页爬虫这个概念,爬虫抓取的是某个网站或者某个应用的内容,提取有用的价值.