博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python爬虫入门(二)Opener和Requests
阅读量:6125 次
发布时间:2019-06-21

本文共 12451 字,大约阅读时间需要 41 分钟。

Handler和Opener

Handler处理器和自定义Opener

opener是urllib2.OpenerDirector的实例,我们之前一直在使用urlopen,它是一个特殊的opener(也就是我们构建好的)。

但是urlopen()方法不支持代理、cookie等其他的HTTP/GTTPS高级功能。所有要支持这些功能:

  1.使用相关的Handler处理器来创建特定功能的处理器对象;

  2.然后通过urllib2.build_opener()方法使用这些处理器对象,创建自定义opener对象;

  3.使用自定义的opener对象,调用open()方法发送请求。

如果程序里所有的请求都使用自定义的opener,可以使用urllib2.install_open()将自定义的opener对象定义为全局opener,表示如果之后凡是调用urlopen,都将使用这个opener(根据自己的需求来选择)

简单的自定义opener()

# _*_ coding:utf-8 _*_import urllib2# 构建一个HTTPHandler处理器对象,支持处理HTTP的请求http_handler = urllib2.HTTPHandler()# 调用build_opener()方法构建一个自定义的opener对象,参数是构建的处理器对象opener = urllib2.build_opener(http_handler)request = urllib2.Request('http://www.baidu.com/s')
# 调用自定义opener对象的open()方法,发送request请求 response = opener.open(request) print response.read()

debug log模式

可以在HTTPHandler里面加参数(debuglevel=1)打开

# _*_ coding:utf-8 _*_import urllib2# 构建一个HTTPHandler处理器对象,支持处理HTTP的请求# http_handler = urllib2.HTTPHandler()# 主要用于调试用http_handler = urllib2.HTTPHandler(debuglevel=1)# 调用build_opener()方法构建一个自定义的opener对象,参数是构建的处理器对象opener = urllib2.build_opener(http_handler)request = urllib2.Request('http://www.baidu.com/s')response = opener.open(request)# print response.read()

ProxyHandler处理器(代理设置)

使用代理IP,这是爬虫/反爬虫的第二大招,通常也是最好用的。

很多网站会检测某一段时间某个IP的访问次数(通过流量统计,系统日志等),如果访问次数多的不像正常人,它会禁止这个IP的访问。

所以我们可以设置一些代理服务器,每隔一段时间换一个代理,就算IP被禁止,依然可以换个IP继续爬取。

urllib2中通过ProxyHandler来设置使用代理服务器,使用自定义opener来使用代理:

免费代理网站:http://www.xicidaili.com/;https://www.kuaidaili.com/free/inha/

 

# _*_ coding:utf-8 _*_import urllib2# 构建一个Handler处理器对象,参数是一个字典类型,包括代理类型和代理服务器IP+Porthttpproxy_handler = urllib2.ProxyHandler({
'http':'118.114.77.47:8080'})#使用代理opener = urllib2.build_opener(httpproxy_handler)request = urllib2.Request('http://www.baidu.com/s')#1 如果这么写,只有使用opener.open()方法发送请求才使用自定义的代理,而urlopen()则不使用自定义代理。response = opener.open(request)#12如果这么写,就是将opener应用到全局,之后所有的,不管是opener.open()还是urlopen() 发送请求,都将使用自定义代理。#urllib2.install_opener(opener)#response = urllib2.urlopen(request)print response.read()

 

但是,这些免费开放代理一般会有很多人都在使用,而且代理有寿命短,速度慢,匿名度不高,HTTP/HTTPS支持不稳定等缺点(免费没好货),所以,专业爬虫工程师会使用高品质的私密代理

 私密代理

(代理服务器都有用户名和密码)必须先授权才能用

# _*_ coding:utf-8 _*_import urllib2#必须输入用户名密码,ip和portauthproxy_handler = urllib2.ProxyHandler({
'http':'username:pwd@ip:port})opener = urllib2.build_opener(authproxy_handler)request = urllib2.Request('http://www.baidu.com/s')response = opener.open(request)print response.read()

为了安全一般把私密代理ip用户名密码保存到系统环境变量里面,再读出来

# _*_ coding:utf-8 _*_import urllib2import os # 从环境变量里面取到用户名和密码proxyuser = os.environ.get('proxuser')   proxypasswd = os.environ.get('proxpasswd')#必须输入用户名密码,ip和portauthproxy_handler = urllib2.ProxyHandler({
'http':proxyuser+':'+proxypasswd+'@ip:port'})opener = urllib2.build_opener(authproxy_handler)request = urllib2.Request('http://www.baidu.com/s')response = opener.open(request)print response.read()

 Cookielib库和HTTPCookieProcess处理器

 Cookie :是指某些网站服务器为了辨别用户身份和进行Session跟踪,而储存在用户浏览器上的文本文件,Cookie可以保持登录信息到用户下次与服务器的会话。

cookielib模块:主要作用是提供用于存储cookie的对象

HTTPCookieProcessor处理器:主要作用是处理这些cookie对象,并构建handler对象。

cookie库

该模块主要的对象有CookieJar、FileCookieJar、MozillaCookieJar、LWPCookieJar。

  • CookieJar:管理HTTP cookie值、存储HTTP请求生成的cookie、向传出的HTTP请求添加cookie的对象。整个cookie都存储在内存中,对CookieJar实例进行垃圾回收后cookie也将丢失。

  • FileCookieJar (filename,delayload=None,policy=None):从CookieJar派生而来,用来创建FileCookieJar实例,检索cookie信息并将cookie存储到文件中。filename是存储cookie的文件名。delayload为True时支持延迟访问访问文件,即只有在需要时才读取文件或在文件中存储数据。

  • MozillaCookieJar (filename,delayload=None,policy=None):从FileCookieJar派生而来,创建与Mozilla浏览器 cookies.txt兼容的FileCookieJar实例。

  • LWPCookieJar (filename,delayload=None,policy=None):从FileCookieJar派生而来,创建与libwww-perl标准的 Set-Cookie3 文件格式兼容的FileCookieJar实例。

其实大多数情况下,我们只用CookieJar(),如果需要和本地文件交互,就用 MozillaCookjar() 或 LWPCookieJar()

下面通过实例登录人人网,学习cookieJar()用法

登录人人网

# _*_ coding:utf-8 _*_import urllib2import urllibimport cookielib#通过CookieJar()类构建一个cookieJar对象,用来保存cookie的值cookie = cookielib.CookieJar()#通过HTTPCookieProcessor()处理器类构建一个处理器对象,用来处理cookie#参数就是构建的CookieJar()对象cookie_handler = urllib2.HTTPCookieProcessor(cookie)#构建一个自定义的openeropener = urllib2.build_opener(cookie_handler)# 通过自定义opener的addheaders的参数,可以添加HTTP报头参数opener.addheaders = [('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36')]#renren网的登录接口url = 'http://www.renren.com/PLogin.do'#需要登录的账号密码data = {
'email':'15********','password':'py********'}# 通过urlencode()编码转换data = urllib.urlencode(data)# 第一次是POST请求,发送登录需要的参数,获取cookierequest = urllib2.Request(url,data = data)response = opener.open(request)print response.read()

有了cookie之后,可以直接爬取其它页面

# _*_ coding:utf-8 _*_import urllib2import urllibimport cookielib#通过CookieJar()类构建一个cookieJar对象,用来保存cookie的值cookie = cookielib.CookieJar()#通过HTTPCookieProcessor()处理器类构建一个处理器对象,用来处理cookie#参数就是构建的CookieJar()对象cookie_handler = urllib2.HTTPCookieProcessor(cookie)#构建一个自定义的openeropener = urllib2.build_opener(cookie_handler)# 通过自定义opener的addheaders的参数,可以添加HTTP报头参数opener.addheaders = [('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36')]#renren网的登录接口url = 'http://www.renren.com/PLogin.do'#需要登录的账号密码data = {
'email':'15********','password':'python********'}# 通过urlencode()编码转换data = urllib.urlencode(data)request = urllib2.Request(url,data = data)response = opener.open(request)# print response.read()# 可以直接爬取登录后的其它页面了response_other = opener.open('http://friend.renren.com/managefriends')print response_other.read()

Requests模块

安装:直接pip install requests

Requests 继承了urllib2的所有特性。Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。

添加headers和查询参数

# _*_ coding:utf-8 _*_import requestskw = {
'wd':'python'}headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}# params 接收一个字典或者字符串的查询参数,字典类型自动转换为url编码,不需要urlencode()response = requests.get("http://www.baidu.com/s?", params = kw, headers = headers)# 查看响应内容,response.text 返回的是Unicode格式的数据print response.text# 查看响应内容,response.content返回的字节流数据print response.content# 查看完整url地址print response.url# # 查看响应头部字符编码print response.encoding# 查看响应码print response.status_code

使用代理

# _*_ coding:utf-8 _*_import requestsheaders = {
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}# 根据协议类型,选择不同的代理proxies = { "http": "http://119.28.152.208:80",}response = requests.get("http://www.baidu.com/", proxies = proxies,headers=headers)print response.text

私密代理验证

urllib2 这里的做法比较复杂,requests只需要一步:

# _*_ coding:utf-8 _*_import requestsheaders = {
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}proxy = { "http": "name:pwd@ip:port" }response = requests.get("http://www.baidu.com/", proxies = proxy,headers=headers)print response.text

web客户端验证

import requestsauth=('test', '123456')response = requests.get('http://192.168.xxx.xx', auth = auth)print response.text

session

在 requests 里,session对象是一个非常常用的对象,这个对象代表一次用户会话:从客户端浏览器连接服务器开始,到客户端浏览器与服务器断开。

会话能让我们在跨请求时候保持某些参数,比如在同一个 Session 实例发出的所有请求之间保持 cookie 。

登录人人网

# _*_ coding:utf-8 _*_import requests# 1. 创建session对象,可以保存Cookie值ssion = requests.session()# 2. 处理 headersheaders = {
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}# 3. 需要登录的用户名和密码data = {
"email":"158xxxxxxxx", "password":"pythonxxxxxxx"}# 4. 发送附带用户名和密码的请求,并获取登录后的Cookie值,保存在ssion里ssion.post("http://www.renren.com/PLogin.do", data = data)# 5. ssion包含用户登录后的Cookie值,可以直接访问那些登录后才可以访问的页面response = ssion.get("http://zhibo.renren.com/news/108")# 6. 打印响应内容print response.text

页面解析和数据处理

 爬虫一共就四个主要步骤:

  1. 明确目标 (要知道你准备在哪个范围或者网站去搜索)
  2. 爬 (将所有的网站的内容全部爬下来)
  3. 取 (去掉对我们没用处的数据)
  4. 处理数据(按照我们想要的方式存储和使用)

一般来讲对我们而言,需要抓取的是某个网站或者某个应用的内容,提取有用的价值。内容一般分为两部分,非结构化数据和结构化数据。

非结构化数据:先有数据,再有结构

结构化数据:先有结构,再有数据

1.非结构化的数据处理

1.文本、电话号码、邮箱地址      -->正则表达式2.HTML文件        -->正则表达式,XPath,CSS选择器

2.结构化的数据处理

1.JSON文件     -->JSON Path    -->转化成python类型进行操作2.XML文件    -->转化成python类型(xmltodict)    -->XPath    -->CSS选择器    -->正则表达式

正则表达式

简单回顾下python正则表达式的一些使用方法

正则表达式测试网站:http://tool.oschina.net/regex/#

re 模块的一般使用步骤如下:

  1. 使用 compile() 函数将正则表达式的字符串形式编译为一个 Pattern 对象

  2. 通过 Pattern 对象提供的一系列方法对文本进行匹配查找,获得匹配结果,一个 Match 对象。

  3. 最后使用 Match 对象提供的属性和方法获得信息,根据需要进行其他的操作
pattern = re.compile('\d')    #将正则表达式编译成一个pattern规则对象pattern.match()    #从起始位置开始往后查找,返回第一个符合规则的,只匹配一次pattern.search()   #从任意位置开始往后查找,返回第一个符合规则的,只匹配一次pattern.findall()  #所有的全部匹配,返回列表pattern.finditer() #所有的全部匹配,返回的是一个迭代器pattern.split()    #分割字符串,返回列表pattern.sub()      #替换
re.I   #表示忽略大小写
re.S   #表示全文匹配

1.match()

import repattern = re.compile('\d+')m = pattern.match('aaa123bbb456',3,5)   #可以指定match起始和结束的位置match(string,begin,end)print m.group()     #12m = pattern.match('aaa123bbb456',3,6)print m.group()     #123
import re#匹配两组, re.I忽略大小写pattern = re.compile(r"([a-z]+) ([a-z]+)",re.I)  #第一组(字母)和第二组(字母)之间以空格分开m = pattern.match("Hello world and Python")print m.group(0)     #Hello world    group(0)获取所有子串print m.group(1)     #Hello          group(1)所有子串里面的第一个子串print m.group(2)     #world          group(2)所有子串里面的第二个子串

2.search()

import repattern = re.compile(r'\d+')m = pattern.search('aaa123bbb456')print m.group()    #123m = pattern.search('aaa123bbb456',2,5)print m.group()    #12

3.findall()

import repattern = re.compile(r'\d+')m = pattern.findall('hello 123456 789')   #print m    #['123456', '789']m = pattern.findall('hello 123456 789',5,10)print m    #['1234']

4.split()

# _*_ coding:utf-8 _*_import repattern = re.compile(r'[\s\d\\\;]+')    #以空格,数字,'\',';'做分割m = pattern.split(r'a b22b\cc;d33d   ee')print m        #['a', 'b', 'b', 'cc', 'd', 'd', 'ee']

5.sub()

# _*_ coding:utf-8 _*_import repattern = re.compile(r'(\w+) (\w+)')str = 'good 111,job 222'm = pattern.sub('hello python',str)print m    #hello python,hello pythonm = pattern.sub(r"'\1':'\2'",str)print m    #'good':'111','job':'222'
# _*_ coding:utf-8 _*_import repattern = re.compile(r'\d+')str = 'a1b22c33d4e5f678'm = pattern.sub('*',str)    #a*b*c*d*e*f*   把数字替换成'*'print m

内涵段子实例

 爬取贴吧所有内容,并通过正则表达式爬取出所有的段子

url变化

  • 第一页url: http: //www.neihan8.com/article/list_5_1 .html

  • 第二页url: http: //www.neihan8.com/article/list_5_2 .html

  • 第三页url: http: //www.neihan8.com/article/list_5_3 .html

 

pattern = re.compile('
(.*?)', re.S) 每个段子内容都是在
......
里面,通过正则可以获取内
#!/usr/bin/env python# -*- coding:utf-8 -*-import urllib2import re class Spider:    def __init__(self):        # 初始化起始页位置        self.page = 1        # 爬取开关,如果为True继续爬取        self.switch = True    def loadPage(self):        """            作用:下载页面        """        print "正在下载数据...."        url = "http://www.neihan.net/index_" + str(self.page) + ".html"        headers = {            'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.101 Safari/537.36'}        request = urllib2.Request(url, headers = headers)        response = urllib2.urlopen(request)        # 获取每页的HTML源码字符串        html = response.read()        #print html        # 创建正则表达式规则对象,匹配每页里的段子内容,re.S 表示匹配全部字符串内容        pattern = re.compile('
(.*?)', re.S) # 将正则匹配对象应用到html源码字符串里,返回这个页面里的所有段子的列表 content_list = pattern.findall(html) # 调用dealPage() 处理段子里的杂七杂八 self.dealPage(content_list) def dealPage(self, content_list): """ 处理每页的段子 content_list : 每页的段子列表集合 """ for item in content_list: # 将集合里的每个段子按个处理,替换掉无用数据 item = item.replace("

","").replace("

", "").replace("
", "") # 处理完后调用writePage() 将每个段子写入文件内 self.writePage(item) def writePage(self, item): """ 把每条段子逐个写入文件里 item: 处理后的每条段子 """ # 写入文件内 print "正在写入数据...." with open("tieba.txt", "a") as f: f.write(item) def startWork(self): """ 控制爬虫运行 """ # 循环执行,直到 self.switch == False while self.switch: # 用户确定爬取的次数 self.loadPage() command = raw_input("如果继续爬取,请按回车(退出输入quit)") if command == "quit": # 如果停止爬取,则输入 quit self.switch = False # 每次循环,page页码自增1 self.page += 1 print "谢谢使用!"if __name__ == "__main__": duanziSpider = Spider() duanziSpider.startWork()

可以按回车接着爬取下一页内容,输入QUIT退出。

 爬取后的内容:

 

转载地址:http://sefua.baihongyu.com/

你可能感兴趣的文章
《AutoCAD 2016中文版室内装潢设计从入门到精通》—— 导读
查看>>
美国女性吐槽 IT 男:有钱自大无聊 约会竟爱谈工作
查看>>
《开放复杂智能系统——基础、概念、分析、设计与实施》—第1章1.4节构建开放复杂智能系统...
查看>>
《SolidCAM+SolidWorks 2014中文版数控加工从入门到精通》——第1章 SolidCAM基础 1.1 CAD/CAM基础...
查看>>
linux如何修改IP 默认网关 DNS
查看>>
《OpenStack云计算实战手册(第2版)》一2.5 用OpenStack镜像服务管理镜像
查看>>
《MATLAB信号处理超级学习手册》——导读
查看>>
《IP组播(第1卷)》一1.7 总结
查看>>
“程序媛”往往比“程序猿”更受认可,但前提是不能公开性别
查看>>
Deepgreen与Greenplum TPC-H性能测试对比(使用VitesseData脚本)
查看>>
maven中去掉单元测试的配置
查看>>
Scheme interpreter in clojure
查看>>
《重构:改善既有代码的设计》—第1章1.3节分解并重组statement()
查看>>
《R语言数据分析》——2.2 其他流行的在线数据格式
查看>>
《信息存储与管理(第二版):数字信息的存储、管理和保护》—— 第2章 数据中心环境...
查看>>
发展型机器人:由人类婴儿启发的机器人. 导读
查看>>
《精通自动化测试框架设计》—第1章 1.1节奥运年的新挑战
查看>>
面向机器学习的自然语言标注3.1 语料库分析中的基本概率知识
查看>>
基因疗法的问题及对策
查看>>
《Android 应用测试指南》——第2章,第2.2节创建一个Android主项目
查看>>