python 爬虫 自动登录人人网

简单的python的爬虫,已经看了一周了,里面还是有一些细节搞不懂,最近连做梦都在post数据,想想真是醉了,我的目标是进入学校的教务系统,可能对有些人来说可能轻而易举,但是对我来说也算是一个很大的挑战了,尤其是教务系统登录页面的验证码,看了几天也没搞懂,算了,还是慢慢研究吧,最近想开始试试写简历了,学长一个劲的要求一定要写项目经验,这才意识到不懂做项目其实也挺可悲的,不过我还有一年,真该为就业想想了,加油了,先贴一个进入人人网的代码!代码只写了进入人人网,并获取页面内容,至于获取之后想怎么玩,那就要看你想做什么了,利用正则表达式处理就行了!

#coding:utf-8
import urllib2
import urllib
import cookielib
import re
def renrenBrower(url,user,password):
    #登陆页面,可以通过抓包工具分析获得,如fiddler,wireshark
    login_page = "http://www.renren.com/PLogin.do"
    try:
        #获得一个cookieJar实例
        cj = cookielib.CookieJar()
        #cookieJar作为参数,获得一个opener的实例
        opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))
        #伪装成一个正常的浏览器,避免有些web服务器拒绝访问。此处伪装的火狐
        opener.addheaders = [('User-agent','Mozilla/5.0 (Windows NT 6.3; WOW64; rv:36.0) Gecko/20100101 Firefox/36.0')]
        #生成Post数据,含有登陆用户名密码。
        data = urllib.urlencode({"email":user,"password":password})
        #以post的方法访问登陆页面,访问之后cookieJar会自定保存cookie
        opener.open(login_page,data)
        #以带cookie的方式访问页面
        op=opener.open(url)
        #读取页面源码
        data= op.read()
        return data

#异常处理
    except Exception,e:
        print str(e)
#访问某用户的个人主页,其实这已经实现了人人网的签到功能。
html = renrenBrower("http://www.renren.com/home",'************','********')
print html

倒数第二行的*****处,分别是人人网的账号和密码!

时间: 2024-10-31 17:27:11

python 爬虫 自动登录人人网的相关文章

python实现自动登录人人网并采集信息的方法

  本文实例讲述了python实现自动登录人人网并采集信息的方法.分享给大家供大家参考.具体实现方法如下: ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68

python实现自动登录人人网并访问最近来访者实例_python

本文实例讲述了python实现自动登录人人网并访问最近来访者的方法,分享给大家供大家参考. 具体方法如下: ##-*- coding : gbk -*- #在 import os from xml.dom import minidom import re import urllib import urllib2 import cookielib import datetime import time from urllib2 import URLError,HTTPError #登录模块 在网上

[Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍

        前三篇文章介绍了安装过程和通过Selenium实现访问Firefox浏览器并自动搜索"Eastmount"关键字及截图的功能.而这篇文章主要简单介绍如何实现自动登录163邮箱,同时继续介绍Selenium+Python官网Locating Elements部分内容.         希望该篇基础性文章对你有所帮助,如果有错误或不足之处,请海涵~        [Python爬虫] 在Windows下安装PhantomJS和CasperJS及入门介绍(上)        

python cookielib 登录人人网的实现代码_python

先上脚本吧,等下来讲下知识点: 复制代码 代码如下: #!/usr/bin/env python #encoding=utf-8 import sys import re import urllib2 import urllib import cookielib class Renren(object): def __init__(self): self.name = self.pwd = self.content = self.domain = self.origURL = '' self.o

爬虫在爬网页时遇到超时,能让爬虫自动重新登录吗

问题描述 爬虫在爬网页时遇到超时,能让爬虫自动重新登录吗 爬网页时,有时连接超时,有时网页返回的html不全导致爬取失败,这时候怎么写能让爬虫重新登录呢, 解决方案 无非就是在你的代码中判断下,然后重新执行登录的代码.

[Python爬虫] Selenium自动访问Firefox和Chrome并实现搜索截图

        前两篇文章介绍了安装,此篇文章算是一个简单的进阶应用吧!它是在Windows下通过Selenium+Python实现自动访问Firefox和Chrome并实现搜索截图的功能.        [Python爬虫] 在Windows下安装PhantomJS和CasperJS及入门介绍(上)        [Python爬虫] 在Windows下安装PIP+Phantomjs+Selenium 自动访问Firefox         可以参照前文安装Selenium环境,目前Selen

请问写python爬虫如何用urllib或者requests模拟用户登录

问题描述 请问写python爬虫如何用urllib或者requests模拟用户登录 比如我在百度文库下个课件,http://youke.baidu.com/view/05984a27b4daa58da0114ac6, 我用urllib2或者request,我可以用urllib2.open(url)或者requests.get(url)来打开页面,但是不知道如何写cookie的,就是让浏览器认为你已经登录了,请问如何写urllib或者requests.get呢?谢谢 解决方案 可以参考下,过程都关

python带cookie提交表单自动登录(转)

今天突然把博客给申请了,以前也想过的,奈于自己觉得水平还太低有点不好意思写博客,但是后来一想,自己的记录所学,加深印象,主要还是为了学习进步,不怕丢人!今天就稍微回顾一下这两天写的一段用python模拟浏览器登录自己学校官网的代码吧(多亏大神指导了). 1 import urllib 2 import urllib2 3 import cookielib 4 5 login_url = "xxxxxxxxxxxxx" 6 7 cj = cookielib.CookieJar()#实例化

python 爬虫教程

转载http://blog.csdn.net/freeking101/article/details/62893343 爬虫入门初级篇 IDE 选择 PyCharm(推荐).SublimeText3.VS2015.wingIDE 装python2还是python3 python社区需要很多年才能将现有的模块移植到支持python3. django web.py flask等还不支持python3.所以推荐安装python2 最新版. Windows 平台 从 http://python.org/