C#根据网址抓取目录和文件名的两个函数

函数|文件名

C#根据网址抓区目录和文件名的两个函数

 我学这个软件开始都思考这个问题了.今天终于完善了这个代码.高兴得很 2006-10-20 ,难道是晚上工作效率更高精神更集中的原因么?哈哈

public void GetUrlFolerName(string strHtmlPagePath)
  {
   //抓取网址字符串中的文件目录
  
   int at = 0;
   int start = 0;
   int notei=0;
   int endi=0;
   int[] myIntArray = new int[10];
   string NewFolderName;
   while((start < strHtmlPagePath.Length) && (at > -1))
   {
    at = strHtmlPagePath.IndexOf('/', start);
    if (at == -1) break;    
    myIntArray[notei]=at;
    start = at+1;
    notei = notei+1;
    endi=at;
   }

   for(int i=0;i<notei;i++)
   {
    //lstFiles.Items.Add(myIntArray[i]);
    if(myIntArray[i]>0)
    {
     if (myIntArray[i+1]>0)
     {
      NewFolderName=strHtmlPagePath.Substring(myIntArray[i]+1,myIntArray[i+1]-myIntArray[i]-1);
      lstFiles.Items.Add(NewFolderName);
     }    

    }
   }
   
  }

  public void GetUrlFileName(string strHtmlPagePath) 
  {
   //抓取网址字符串中的文件名称
   int at = 0;
   int start = 0;
   int notei=0;
   int endi=0;
   int[] myIntArray = new int[10];   
   while((start < strHtmlPagePath.Length) && (at > -1))
   {
    at = strHtmlPagePath.IndexOf('/', start);
    if (at == -1) break;    
    myIntArray[notei]=at;
    start = at+1;
    notei = notei+1;
    endi=at;
   }

   for(int i=0;i<notei;i++)
   {
    //lstFiles.Items.Add(myIntArray[i]);
    if(myIntArray[i]>0)
    {
     if (myIntArray[i+1]==0)
     {
      string

C#下载文件时候弹出选择文件夹保存目录的代码C#根据计算机名获取对应IP地址C#获取网络邻居所有工作组和机器名称C#列表所有IIS站点以及相关站点属性c#读取IIS中的站点相关属性代码C#新建站点,删除站点函数代码C#下在图片文件到本地,c#,c#下载,下载图片,下载文件,下载函数C#根据网址获取域名,目录名,文件名函数c#获取本机电脑相关信息FTP网站文件到本地的C#代码c#保存文件时候的弹出选择要保存的文件夹带新建文件夹效果的类代码C#中调用对应的应用程打开文件序的代码数据表文件导出Execel文件-本地测试成功C#新保存文件时候用到按日期时间命名的代码C#根据网址抓取目录和文件名的两个函数C#下载文件函数C#用线程传参下载文件的代码c#使用线程下载文件的控制技巧和缺陷asp.net中安装使用OWC组件生成EXECEL步骤批量抓取网页代码中的HTTP和邮件地址,IO,正则表达式,抓网页源码Name=strHtmlPagePath.Substring(myIntArray[i]+1,strHtmlPagePath.Length-myIntArray[i]-1);
      //lstFiles.Items.Add(C#下载文件时候弹出选择文件夹保存目录的代码C#根据计算机名获取对应IP地址C#获取网络邻居所有工作组和机器名称C#列表所有IIS站点以及相关站点属性c#读取IIS中的站点相关属性代码C#新建站点,删除站点函数代码C#下在图片文件到本地,c#,c#下载,下载图片,下载文件,下载函数C#根据网址获取域名,目录名,文件名函数c#获取本机电脑相关信息FTP网站文件到本地的C#代码c#保存文件时候的弹出选择要保存的文件夹带新建文件夹效果的类代码C#中调用对应的应用程打开文件序的代码数据表文件导出Execel文件-本地测试成功C#新保存文件时候用到按日期时间命名的代码C#根据网址抓取目录和文件名的两个函数C#下载文件函数C#用线程传参下载文件的代码c#使用线程下载文件的控制技巧和缺陷asp.net中安装使用OWC组件生成EXECEL步骤批量抓取网页代码中的HTTP和邮件地址,IO,正则表达式,抓网页源码Name);
      
      txtSaveFileName.Text=C#下载文件时候弹出选择文件夹保存目录的代码C#根据计算机名获取对应IP地址C#获取网络邻居所有工作组和机器名称C#列表所有IIS站点以及相关站点属性c#读取IIS中的站点相关属性代码C#新建站点,删除站点函数代码C#下在图片文件到本地,c#,c#下载,下载图片,下载文件,下载函数C#根据网址获取域名,目录名,文件名函数c#获取本机电脑相关信息FTP网站文件到本地的C#代码c#保存文件时候的弹出选择要保存的文件夹带新建文件夹效果的类代码C#中调用对应的应用程打开文件序的代码数据表文件导出Execel文件-本地测试成功C#新保存文件时候用到按日期时间命名的代码C#根据网址抓取目录和文件名的两个函数C#下载文件函数C#用线程传参下载文件的代码c#使用线程下载文件的控制技巧和缺陷asp.net中安装使用OWC组件生成EXECEL步骤批量抓取网页代码中的HTTP和邮件地址,IO,正则表达式,抓网页源码Name.ToLower();
     }
    }
   }
   
  }

时间: 2024-09-17 04:48:55

C#根据网址抓取目录和文件名的两个函数的相关文章

nutch-如何实现从购书网址抓取页面、再获取里面的图书信息,实现这个功能有什么比较好用的工具或者软件吗?

问题描述 如何实现从购书网址抓取页面.再获取里面的图书信息,实现这个功能有什么比较好用的工具或者软件吗? 我期望能实现一个互联网信息收集的功能,如从购书网址抓取页面.再获取里面的图书信息,实现这个功能有什么比较好用的工具或者软件吗? 解决方案 //try python //import scrapy module //http://scrapy.org //import re module //good luck 解决方案二: 任何一种编程语言都很好用.当然你什么都不会,可以用诸如按键助手.火车

A5虫虫营销助手9月3日售后群分享:文章采集与网址抓取

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 A5虫虫营销助手售后群有很多高手.为了让各位学到更多东西,我们定期组织交流分享活动,把分享氛围带动起来,把高手的经验挖掘出来,帮助各位建立人脉,更加快速的进步.我们致力于把虫虫售后群打造成互联网网站/营销高手群.在这里,你学到的不仅是关于虫软. 以后不出意外,我们每周六晚8:30会举办分享活动,欢迎各位准时参加,也欢迎各位联系我,把你的心得分

用nodejs爬虫抓取网页,但提示无Post()函数

问题描述 用nodejs爬虫抓取网页,但提示无Post()函数 使用EXPRESS模块搭建WEB项目. 代码: function transToPost(post){ var mPost = new Post({ title : post.title, link : post.link, description : post.description, pubDate : post.pubDate, source : post.source, author : post.author, typeI

抓取-网页同一请求地址两次的网页显示不同,源码也不一致

问题描述 网页同一请求地址两次的网页显示不同,源码也不一致 本人最近在尝试网页抓取,发现当当店铺的商品列表页面每次请求的结果都不相同. 举个例子:韩都衣舍 = http://shop.dangdang.com/4609/list.html. 多次请求这个地址会发现每次的商品页数可能不同,源码也不同.实际结果就是明明应该有几十页的内容,却只显示有几页.这是什么原因导致呢?因为我是通过页面内的下一页来抓取下一页内容,这样的话必然导致抓取不足,甚至有时候明明下一页是第三页,却显示了第一页的内容,望解答

asp.net C#实现根据网址抓取网页截屏成图片

   代码如下 复制代码 using System.Drawing; using System.Drawing.Imaging; using System.IO; using System.Threading; using System.Windows.Forms; public class WebsiteToImage { private Bitmap m_Bitmap; private string m_Url; private string m_FileName = string.Empt

PHP+Ajax远程图片抓取器下载的例子

  先看效果 实现原理 发送请求 :将输入的目标网址及保存路径名称采用AJAX异步的方式发送到image.info.php文件,该文件中包含有一个ImageCatch类,注意:因为有一个是指定目标图片抓取,一个是只要指定一个网址,如http://www.111cn.net形式,所以还要有一个参数用来判断是指定目标抓取还是指定网站抓取. 接收请求 :接收发送过来的两个参数,目标网址及保存路径,实例化ImageCatch类,将地址及保存路径传进去,用file_get_contents函数将目标地址的

抓取某一个网站整站的记录

      经常由于某些原因我们需要爬取某一个网站或者直接复制某一个站点,到网上找了很多工具进行测试,试了很多各有各的问题,最终选择了Teleport Ultra,用起来效果很好:具体的操作手册等东西就不在这里说了,网上搜索一下有很多,这里主要说遇到的问题: 软件下载地址:http://download.csdn.net/detail/ityouknow/9506423 工具截图: 测试抓取的网站为简单心理:www.jiandanxinli.com 抓取后的效果图   一般我会选择复制100级基

虫友们该怎么样利用虫虫软件抓取资源

现在做一个网站很容易,后期推广却很难,有可能站长们都有这种感受,至于后期推广不过就是外链+实质内容,实质内容就不说了,chongseo要强调的是 怎么样利用虫虫软件抓取功能,去获取更多的群发外链的资源,如今能做外链的地方并不是很多,不过就是那末几个类型,bbs,zhidao,B2B,分类信 息,收藏夹,等等.下边用虫虫怎么样去抓取资源呢?一起来看下吧! 一.bbs论坛:站长们应当都晓得如今网上比较流行的BBS开源CMS就属discuz,PHPWIND了,站长们建论坛CMS基本都是运用的这种开源

如何让搜索引擎抓取AJAX内容解决方案_php实例

越来越多的网站,开始采用"单页面结构"(Single-page application). 整个网站只有一张网页,采用Ajax技术,根据用户的输入,加载不同的内容. 这种做法的好处是用户体验好.节省流量,缺点是AJAX内容无法被搜索引擎抓取.举例来说,你有一个网站. http://example.com 用户通过井号结构的URL,看到不同的内容. http://example.com#1 http://example.com#2 http://example.com#3 但是,搜索引擎