问题描述
请教下面纠结的问题: 我用httpclient,post提交参数,抓取指定检索到的的数据(分多个页面,一个页面一次提交请求),大部分抓取的数据都是全的,大概抓取了100左右页面数据,就开始有一页面的数据不全,断断续续,不全的数据是:没有我指定参数提交的检索到的数据(只有静态页面的数据,即:没有业务数据),但是请求返回来的状态是200,也获取不到异常,纠结了好几天;代码:public String clientPost(String urll, String htmlbody) {String[] repParams = htmlbody.split("&");List<NameValuePair> data = new ArrayList<NameValuePair>();HttpPost post = new HttpPost(urll);for (String param : repParams) {data.add(new BasicNameValuePair(param.substring(0,param.indexOf("=")), param.substring(param.indexOf("=") + 1, param.length())));}try {// 参数post.setEntity(new UrlEncodedFormEntity(data, "utf-8"));// execute postHttpResponse response = httpClient.execute(post);if (response.getStatusLine().getStatusCode() == 200) {a++;System.out.println("第:" + a + "次请求成功");HttpEntity entity = response.getEntity();BufferedReader read = new BufferedReader(new InputStreamReader(entity.getContent(), "utf-8"));String currentLine;System.out.println("entity.getContent:"+ entity.getContent().toString().length());StringBuffer buff = new StringBuffer();while ((currentLine = read.readLine()) != null) {buff.append(currentLine);}System.out.println("buff长度:" + buff.length());if (buff.length() < 60000) { //数据不全判断int i = 1;clientPost(urll, htmlbody);System.out.println("第" + (a - i) + "页请求了" + (++i) + "次");} else {String urlContent = post.getURI().getRawPath()+ "rn"+ post.getRequestLine().toString()+ "rn"+ displayInfo(new UrlEncodedFormEntity(data,"utf-8").getContent());logContent(urlContent, buff.toString(), a + ".html");System.out.println("buff:--------------"+ buff.toString().length());return buff.toString();}}} catch (UnsupportedEncodingException e) {e.printStackTrace();logNetErr(e);} catch (ClientProtocolException e) {e.printStackTrace();logNetErr(e);} catch (IOException e) {e.printStackTrace();logNetErr(e);} finally {post.releaseConnection(); httpClient.getConnectionManager().closeExpiredConnections();}return null;}还请各位碰到这样的问题指教下: 问题补充:rommal7090 写道
解决方案
源数据问题,你不一定能捕获到,如果你请求的页面dao报了异常,返回的数据为null,前端页面只是没有数据而已,你完全觉察不到问题很好解决,如果内容有问题的打log
解决方案二:
我认为是网站禁止你抓取的表现。
解决方案三:
不知道你能否把你要抓取的页面发来,让大家一起分析下呢,你的实现代码就不用了。
解决方案四:
问题补充:fslx2008 写道你要抓取的页面是否有ajax的异步数据,页面如果包含这些延迟加载的数据,是不能通过一次抓取得到全部数据的。 这个不对的,异步加载的话,还是会再一次请求的。没看懂你说的意思,我说的不知道你看懂没有,页面中包含通过ajax延迟加载的数据的话,只抓取一次是不能将整个页面的内容取到的,而且从你的问题和代码中也没有关于再一次请求的实现
解决方案五:
既然前100页没有问题,说明代码基本是ok的,数据源的问题可能比较大,这样,你把没有抓到数据的请求打印出来,然后用这些参数去确认一下,看是否能拉到数据,我怀疑是拉不到的。试试吧
解决方案六:
1、到了第100页,他的库里存的数据有问题(比如库里存了带html标签的内容,导致页面标签不闭合),页面没有数据,但是你请求返回的肯定是200,只有一些静态内容。可以用日志打印一下url,手动去请求一下试试2、如果是服务器压力导致的异常问题,你sleep10秒钟再抓一次试试
解决方案七:
服务端没有返回数据的长度?
解决方案八:
哥们,你用httpclient是模拟浏览器访问网页/登录等,这种东西感觉你最好先搞个抓包工具先看访问网页post,get的东西,就能找到你先要的东西了。
解决方案:
判断一定是抓取的页面有ajax请求,当你抓取的时候 ajax还没返回,所以就没抓全
解决方案:
有可能是源数据的问题,应该先确定抓取源的问题
解决方案:
你要抓取的页面是否有ajax的异步数据,页面如果包含这些延迟加载的数据,是不能通过一次抓取得到全部数据的。
解决方案:
你把代码全贴上来看看