在Asp中不借助第三方组件抓取别的站点的页面

微软在Asp中给我们提供了一种使用ActiveX的来做页面的方法,我们就用一个简单的抓取页面的例子来实际讲解一下这种方法,在本站的专栏的php版面中,我曾经讲过如何使用php来抓取别的站点的页面.
<%
url = "http://www.asp888.net/study/testSSi.txt"
set inet = createobject("InetCtls.Inet")
inet.RequestTimeOut = 20
inet.Url = url
strRet = inet.OpenURL()
%>
<HTML>
<HEAD>
<TITLE>抓取页面测试</TITLE>
</HEAD>
<BODY>

<P>页面的内容是:: <%=strRet %></P>

</BODY>
</HTML>
同样,通过对 strRet 的分析,我们就可以按照我们的要求筛选出我们需要的数据在这个例子中,我想让大家知道,在asp的世界里,除了ADODB,Scripting 等一些MS提供的常用组件以外还有很多对我们非常有用的组件.只要我们注意学习,一定会有所帮助的.

时间: 2024-08-30 15:40:55

在Asp中不借助第三方组件抓取别的站点的页面的相关文章

如何跨站抓取别的站点的页面的补充

在实际的应用中,经常会遇到一些特殊的情况,比如需要新闻,天气预报,等等,但是作为个人站点或者实力小的站点 我们不可能有那么多的人力 物力 财力去做这些事情,怎么办呢?  好在互联网是 资源共享的,我们可以利用程序 自动的把别的站点的页面抓取回来经过处理后被我们所利用.   用什么呢,那个战友给的是不行的,其实在Php有这个功能,那就是用curl库.请看下面的代码!  <?php $ch = curl_init ("http://dailynews.sina.com.cn"); $

如何跨站抓取别的站点的页面的补充_php基础

在实际的应用中,经常会遇到一些特殊的情况,比如需要新闻,天气预报,等等,但是作为个人站点或者实力小的站点 我们不可能有那么多的人力 物力 财力去做这些事情,怎么办呢?  好在互联网是 资源共享的,我们可以利用程序 自动的把别的站点的页面抓取回来经过处理后被我们所利用.   用什么呢,那个战友给的是不行的,其实在Php有这个功能,那就是用curl库.请看下面的代码!  <?php $ch = curl_init ("http://dailynews.sina.com.cn"); $

php如何跨站抓取别的站点的页面的补充

在实际的应用中,经常会遇到一些特殊的情况,比如需要新闻,天气预报,等等,但是作为个人站点或者实力小的站点 我们不可能有那么多的人力 物力 财力去做这些事情,怎么办呢?  好在互联网是 资源共享的,我们可以利用程序 自动的把别的站点的页面抓取回来经过处理后被我们所利用.  用什么呢,那个战友给的是不行的,其实在Php有这个功能,那就是用curl库.请看下面的代码!  <?php $ch = curl_init ("http://dailynews.sina.com.cn");$fp

http访问-人为编码实现网页页面内容的抓取与浏览器访问页面的区分点有哪些?

问题描述 人为编码实现网页页面内容的抓取与浏览器访问页面的区分点有哪些? 请问大神们用浏览器访问页面与编码实现请求访问来获取内容有什么区分点吗?都是HTTP协议的情况下,希望大家能给分享下经验,谢谢! 解决方案 是说爬虫吗?开发爬虫可以去神箭手云爬虫看看.很不错的爬虫云开发平台

python-scrapy如何循环抓取所有类似的页面

问题描述 scrapy如何循环抓取所有类似的页面 我是刚刚开始学习爬虫,模仿网上一个例子自己写了一个,想循环抓取所有页面新闻标题和链接,但是只能抓取到起始页面的. 这是抓取的起始页面 从下面可以看到列表有很多,我想抓取所有的新闻条目,每一页的地址仅一个数字不同 spider文件夹下的关键代码如下所示 # -*- coding:utf-8 -*- from scrapy.spiders import Spider from scrapy.selector import Selector from

ASP 中利用OWC 服务器端组件动态生成图表

动态|服务器|图表 引:Web程序开发中,经常需要从数据库表文件中提取数据,并对大批量的数据进行分析比较,此时最常用也是最直观明了的表现方法莫过于绘制图表. ASP擅长服务器端的Web编程,操作后台数据库更是它的强项.但是用ASP制作实时数据库图表有点困难,因为ASP本身并不支持图表功能,只能借助第三方控件进行开发,如VB的MSChart 控件.而微软推出的实时数据库图表制作组件-- O W C(Microsoft Office Web Components),为在Web中绘制图形提供了灵活的同

零基础写python爬虫之使用urllib2组件抓取网页内容_python

版本号:Python2.7.5,Python3改动较大,各位另寻教程. 所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地.  类似于使用程序模拟IE浏览器的功能,把URL作为HTTP请求的内容发送到服务器端, 然后读取服务器端的响应资源. 在Python中,我们使用urllib2这个组件来抓取网页. urllib2是Python的一个获取URLs(Uniform Resource Locators)的组件. 它以urlopen函数的形式提供了一个非常简单的接口. 最简

python中两种判断和抓取网页编码的方法

在web开发的时候我们经常会遇到网页抓取和分析,各种语言都可以完成这个功能.我喜欢用python实现,因为python提供了很多成熟的模块,可以很方便的实现网页抓取. 但是在抓取过程中会遇到编码的问题,那今天我们来看一下如何判断网页的编码: 网上很多网页的编码格式都不一样,大体上是GBK,GB2312,UTF-8等. 我们在获取网页的的数据后,先要对网页的编码进行判断,才能把抓取的内容的编码统一转换为我们能够处理的编码,避免乱码问题的出现. 下面介绍两种判断网页编码的方法: 方法一:使用urll

在ASP中不用模板生成HTML静态页直接生成.html页面_应用技巧

我们一般生成HTML静态页时,常常会事先做好一个模板,然后生成时调用模板文件.那么有没有办法不用模板,如一个正常的htmer.asp页面,直接生成为htmer.html页面呢?当然是可以的,而且非常简单,今天就教大家在ASP中不用模板生成HTML静态页的方法. 这里假设有一个htmer.asp动态页面,你想把它生成为HTML静态页面htmer.html,那么我们首先新建一个ASP程序文件htmer_to_html.asp(该文件就是用来将htmer.asp动态页面生成为静态页面htmer.htm