绞尽脑汁尚未解决 - 一个抓取网页的问题

问题描述

简单描述一下:某公司给了我们几个加密狗,只有安装了加密狗并且安装了相应插件的电脑才可以登陆到他们公司的系统(用浏览器登录,本身这家公司的系统就是B/S结构),然后用他们的系统才可以填写表单进行查询录入数据之类的操作。现在的问题是,我们这里有几十个网点,每个网点都想登陆到他们的系统进行操作,可加密狗只有几个啊!怎么才能让让所有网点都登陆到他们的系统呢?我考虑了网页爬虫、IIS反向代理之类的技术,好像都不行。好郁闷。现在的问题是,已经有软件公司开发的软件做到了!他们可以让所有电脑的浏览器都可以打开这家公司的系统,打开后可以登录、录入数据、查询数据,而且就和有加密狗的电脑打开的界面一模一样!有没有哪位高手给个提示,或者告诉我怎么实现啊?非常感谢!

解决方案

解决方案二:
那个是通过自己做个界面入口,然后模拟post到有加密狗的服务器上的吧或者人家就是破解了他们的加密狗
解决方案三:
应该不是自己做的界面入口,因为我看过操作,人家打开这个系统的任何界面都和原始的界面相同。这个系统中那么多页面,要是都做个界面入口,不是累死了?
解决方案四:
没有同学知道原理么?哎,悲伤啊。
解决方案五:
加密狗克隆,
解决方案六:
有加密狗的电脑做成代理给其他人访问啊
解决方案七:

解决方案八:
引用5楼shingoscar的回复:

有加密狗的电脑做成代理给其他人访问啊

应该是这个思路不是破解毕竟硬件保护没那么容易破解,中间代理访问
解决方案九:
这几天没上来看回复。谢谢大家啊。引用7楼yzf86211861的回复:

Quote: 引用5楼shingoscar的回复:
有加密狗的电脑做成代理给其他人访问啊

应该是这个思路不是破解毕竟硬件保护没那么容易破解,中间代理访问

我想问一下,中间代理访问是用IIS设置么?还是要装什么软件?谢谢。
解决方案十:
这个似乎没那么难1、建一个WINFORM程序,或者建一个服务,安装在有加密狗的机器A上2、其他机器可POST到机器A,也可其他方式访问机器A上你写的程序或者服务,获取HTML代码就可以了

时间: 2024-09-05 21:08:05

绞尽脑汁尚未解决 - 一个抓取网页的问题的相关文章

用Python编写网络爬虫(一):抓取网页的含义和URL基本构成

一.网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字. 把互联网比喻成一个蜘蛛网,那么Spider就是在网上爬来爬去的蜘蛛. 网络蜘蛛是通过网页的链接地址来寻找网页的. 从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其它链接地址, 然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止. 如果把整个互联网当成一个网站,那么网络蜘蛛就可以用这个原理把互联网上所有的网页都抓取下来. 这样看来,网络爬虫就是一个爬行程序,一个抓

PHP的CURL方法curl_setopt()函数案例介绍(抓取网页,POST数据)_php技巧

通过curl_setopt()函数可以方便快捷的抓取网页(采集很方便大笑),curl_setopt 是PHP的一个扩展库      使用条件:需要在php.ini 中配置开启.(PHP 4 >= 4.0.2)        //取消下面的注释 extension=php_curl.dll 在Linux下面,需要重新编译PHP了,编译时,你需要打开编译参数--在configure命令上加上"–with-curl" 参数. 1. 一个抓取网页的简单案例: [php] view pla

用Python程序抓取网页的HTML信息的一个小实例

  这篇文章主要介绍了用Python程序抓取网页的HTML信息的一个小实例,用到的方法同时也是用Python编写爬虫的基础,需要的朋友可以参考下 抓取网页数据的思路有好多种,一般有:直接代码请求http.模拟浏览器请求数据(通常需要登录验证).控制浏览器实现数据抓取等.这篇不考虑复杂情况,放一个读取简单网页数据的小例子: 目标数据 将ittf网站上这个页面上所有这些选手的超链接保存下来. 数据请求 真的很喜欢符合人类思维的库,比如requests,如果是要直接拿网页文本,一句话搞定: ? 1 d

技术-用jsoup抓取网页获取网页源码的时候,得到的源码和在网站上面点击右键查看源码不相同,怎么解决

问题描述 用jsoup抓取网页获取网页源码的时候,得到的源码和在网站上面点击右键查看源码不相同,怎么解决 用jsoup抓取网页获取网页源码的时候,得到的源码和在网站上面点击右键查看源码不相同,怎么解决 Document doc = Jsoup.parse(new URL(url), 5000); 解决方案 一部分html是ajax异步加载的,你得用fiddler调试,得到这些请求,照着写 解决方案二: C++ 抓取网页的源码获取网页的源码获取网页源码工具类

linux-求助!!!curl抓取网页出现浏览器不支持嵌入式框架,该如何解决

问题描述 求助!!!curl抓取网页出现浏览器不支持嵌入式框架,该如何解决 各位大神,我用curl来抓取学校网页时出现这种情况应该如何解决呀! ![http://img.ask.csdn.net/upload/201604/01/1459483867_199566.jpg]() 解决方案 curl抓取网页内容,跟浏览器怎么查看没关系,或者你的请求被服务器检测出不符合

快来帮帮我,今天就要解决抓取网页问题

问题描述 我用C#做一个WINFORM程序,用来抓取某个网页上的TETXBOX再往里面填数据.但这个网页是用openModalDialog方法弹出的窗口,我只能找到它的父窗口找不到它,上午查了半天还是没得法,请各位大虾指点小子一.二. 解决方案 解决方案二:constintWM_GETTEXT=0x000D;constintWM_SETTEXT=0x000C;constintWM_CLICK=0x00F5;[DllImport("User32.dll",EntryPoint="

抓取数据-用jsoup抓取网页数据的时候,在本地开发环境上面没有问题,但是把他部署到阿里云上面就不行

问题描述 用jsoup抓取网页数据的时候,在本地开发环境上面没有问题,但是把他部署到阿里云上面就不行 用jsoup抓取网页数据的时候,在本地开发环境上面没有问题, 但是把他部署到阿里云上面去的时候,就连接超时.但奇怪的是,我对4,5个网址进行抓取, 就一个网址连接超时,高手帮忙解决下 解决方案 有没有人在 有没有人在 有没有人在

PHP中使用file_get_contents抓取网页中文乱码问题解决方法_php技巧

本文实例讲述了PHP中使用file_get_contents抓取网页中文乱码问题解决方法.分享给大家供大家参考.具体方法如下: file_get_contents函数本来就是一个非常优秀的php自带本地与远程文件操作函数,它可以让我们不花吹挥之力把远程数据直接下载,但我在使用它读取网页时会碰到有些页面是乱码了,这里就来给各位总结具体的解决办法. 根据网上有朋友介绍说原因可能是服务器开了GZIP压缩,下面是用firebug查看我的网站的头信息,Gzip是开了的,请求头信息原始头信息,代码如下: 复

关于java 使用 socket 抓取网页的问题。

问题描述 学校布置了一个大作业,是用javasocket做一个简单的浏览器,需要自己抓取HTML代码然后自己去解析HTML的标签,在做的过程中需要用GET的方法去发送HTTPHEADER,然后得到响应,现在有几个问题:1.有些是HTTP1.0有些是HTTP1.1这个头文件怎么设置才能得到正确的回应2,我在尝试链接GOOGLE的时候,返回的是302FOUND,我输入的地址是www.google.com,期中返回的头文件里有个LOCATION:www.google.co.uk,然后我直接输入www.