Scrapebox群发入门之二:普遍撒网

针对几个主关键字给自己的主页和个别目标页面做外链这个大家应该都有做,工作量还是比较小的,那么除了这些以外的页面呢,群发外联该如何操作?

还记得Q大教的方法么:先给已经被google收录的页面做外链!

这样一来我们需要搜集自己网站里被google收录的页面,指定关键字,并且生成SB可群发的格式,但是手动来操作的话工作量不是一般的大。。。

下面说一下我的操作方法:

1. 采集自己网站中已收录的文章页面

我一般使用Scrapebox里提供的采集功能来提取自己网站所有被收录的页面 (这里只针对wordpress类型的网站)

具体方式是在Harvest模块中选中Custom Footprint

在keywords输入框中输入 site:yourdomain,你可以输入很多个域名一起采集,挂代理开启多线程采集

采集完成后 去掉重复的URL 然后将list导出

这些就是网站中被收录的页面。 但是这些页面中会有一些除首页和文章页以外的页面,我们需要过滤一下

非文章页面的URL一般都有统一的特征:&">nbsp; /about/ ; wp-login.php;  /tag/;   /page/  等等  需要把他们所在的URL行都删除掉

具体方法是可以用一些编辑器用正则表达式来匹配这些URL 然后批量替换掉,比如Editplus,Dreamweaver等

这种用Scrapebox采集已收录页面的方法的优点:支持多网站一起采,采集起来超级快

缺点是:会采集一些非文章页面,需要自己过滤

如果谁有更好的方法 请告诉我啊。。

2. 为采集来的URL指定关键字并且生成ScrapeBox可发的websites.txt

URL采集来之后就要给他们指定关键字了,但是如果一个一个手动写依旧是会累死人。。。

懒人方法:使用火车头采集一遍这些URL列表,并且生成scrapebox可发的Websites格式

简单说下操作,采集来的URL list导入火车头,火车头需要采集保存两个字段, URL和关键字

关键字项可以根据你网站URL的实际情况来采集源代码中的<meta name=”keywords” 项或者采集Tags项(此项就做为URL对应的锚文本关键字)

在采集的时候可以针对采集后的结果做一些字串替换操作,直接就生成scrapebox可发的格式Post或者Trackback,还记得上次提到的  懒人混合群发大法 么,要按照里面的格式设置

采集完之后导出csv,大致检查一下,复制里面内容保存为文本就可以分发到Scrapebox里面了

PS:如果目标网站没有keywords和Tags 你也可以直接把本站的主关键字的长尾随机分配给url 作为关键字 反正大家都是同一主题的

细心的朋友可能会觉得这样操作会出现有些关键字和URL不是很匹配的情况,因为这取决于keywords和tags

但是本文的主题是利用Scrapebox来针对大多数已收录的URL做前期外链。。。 所以我感觉这样的操作方式: 问题不大 哈哈!

因为对于新站,特别是autoblog有成百上千个页面, 这样可以保证SEO初期给网站收录的页面比较均匀的做外链。。。

当网站建立一段时期并且有一定的外链之后, 一些SEO数据也会慢慢浮出水面,这时候我们再采取二号行动方案

具体该怎么操作呢   哈哈 请继续关注后续报道

本文作者: Catop

本文地址: http://www.xrumer.cn/32

时间: 2024-09-28 08:16:42

Scrapebox群发入门之二:普遍撒网的相关文章

Scrapebox群发入门之三:重点捕捞

在使用ScrapeBox给自己的Autohttp://www.aliyun.com/zixun/aggregation/9435.html">blog已收录的页面做一些外链之后,慢慢会获得一些长尾关键词的流量 这时需要调整一下外链策略了,我们需要集中火力给有排名的关键词来做外链,也就是今天的主题 "重点捕捞" 我感觉有两个方向. 1. 建站初期自己定位好的主关键词,这部分最好做一些高质量的链接,比如高PR的Blog评论链接,Profile,软文,自建Blog,书签等等.

Scrapebox群发入门之一:混合群发大法

很多同学都在用Scrapebox吧,是否像我一样有遇到过这样的问题: 一个网站需要做外链的不光首页,还有很多内页,这样一来就有N组系列关键字以及URL,每次都要加载Names.txt 以及对应的http://www.aliyun.com/zixun/aggregation/8048.html">Websites.txt,来回的切换操作,那是相当的麻烦... 偷偷告诉大家一个懒人操作方法 ,只需要稍微改动一下,就可以轻松许多 首先随意加载一个Name.txt (文件不能为空,可以随便填个空格

Scrapebox群发入门之五:超级List X 10

这篇的目的是把你超级List的数量 X 10 上篇说到的两种类型的List,要分开操作别混了..(一种是自动通过审核的,一种是高PR的 3.4以上) 来看我的操作方法: 1.导出List到根域名url 加载你先前积累好的List到ScrapeBox中 - > 首先去掉重复的域名 Remove Duplicate Domains -> 接着Trim to Root 接着把结果导出来,接下来我要把这些域名里其他的文章页面也都挖出来,从而达到扩大list数目的目的. 2.根域名URL本地处理 接下来

Div+CSS布局入门教程(二) -- 写入整体层结构与CSS

css|教程|入门教程 二.写入整体层结构与CSS 接下来我们在桌面新建一个文件夹,命名为"DIV+CSS布局练习",在文件夹下新建两个空的记事本文档,输入以下内容:<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"><html xmlns=

Android开发入门(二十)内容提供者 20.2 ContentProvider的使用范例

想要理解ContentProvider的最佳方式就是自己动手去尝试一下.下面介绍如何使用一个内置的Contacts ContentProvider. 1. 创建一个工程,Provider. 开发入门(二十)内容提供者 20.2 ContentProvider的使用范例-contentprovider"> 2. main.xml中的代码. <?xml version="1.0" encoding="utf-8"?> <LinearLa

Android开发入门(二十)内容提供者 20.1 数据共享

在上一章节中,我们介绍了数据持久化的几种方法:首选项,文件,以及数据库.在保存复杂的数据结构 时,推荐使用SQliteDatabase.但是,共享数据就成了一种挑战,因为,数据库只对创建它的程序包可用. 在这一章节中,将会介绍Android特有的数据共享方式:使用ContentProvider.也会介绍如何使用内 置的ContentProvider,以及创建自己的ContentProvider,以便在多个程序包之间共享数据. 在 Android中,共享数据的推荐方式是使用ContentProvi

Android开发入门(二)使用意图 2.2 解决Intent-Filter的冲突

我们已经知道<intent-filter>用来定义你的Activity如何被另外的Activity开启,这就是所谓的 "过滤器".但是,如果有两个Activity有相同的<intent-filter>,那将发生什么呢? AndroidManifest.xml中的代码. <?xml version="1.0" encoding="utf-8"?> <manifest xmlns:android="

互联网协议入门(二)

上一篇文章分析了互联网的总体构思,从下至上,每一层协议的设计思想. 这是从设计者的角度看问题,今天我想切换到用户的角度,看看用户是如何从上至下,与这些协议互动的. ============================================================== 互联网协议入门(二) 作者:阮一峰 (接上文) 七.一个小结 先对前面的内容,做一个小结. 我们已经知道,网络通信就是交换数据包.电脑A向电脑B发送一个数据包,后者收到了,回复一个数据包,从而实现两台电脑之间的

Spring Cloud Eureka 入门 (二)服务提供者详解

  "优秀不是过去是一种心态"  「Spring Cloud Eureka 入门系列」Spring Cloud Eureka 入门 (一)服务注册中心详解Spring Cloud Eureka 入门 (二)服务提供者详解Spring Cloud Eureka 入门 (三)服务消费者详解 本文提纲1. springcloud-eureka-sample 工程结构2. 运行 springcloud-eureka-client-provider 服务提供者工程3. 详解 springclou