码迷,mamicode.com
首页 > Web开发 > 详细

urllib库

时间:2018-07-21 11:57:08      阅读:307      评论:0      收藏:0      [点我收藏+]

标签:读取   sch   中文参数   timeout   允许   otf   cap   col   pre   

目录

urllib库

python内置的http请求库
官方文档:https://docs.python.org/3/library/urllib.html
一个web测试网站:http://httpbin.org

1.urllib.request(请求模块)

返回目录

urlopen

发送请求

urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)
  • url:链接,字符串  
  • data:post方式表单,bytes类型
    •  data = bytes(urllib.parse.urlencode({‘word‘: ‘hello‘}), encoding=‘utf8‘)
    •  bytes方法第一个参数字符串类型,第二个第二个参数指定编码格式,urlencode将参数字典转化为字符串
  • timeout:设置超时,单位秒,超过未响应会报URLError异常
  • context:必须是ssl.SSLContext类型,用来指定SSL设置
  • cafile和capath:分别指定CA证书和它的路径,请求HTTPS链接时会有用

Request

封装请求,得到请求对象,传给urlopen,请求对象属性和方法文档:https://docs.python.org/3/library/urllib.request.html#request-objects

request = urllib.request.Request(‘https://python.org‘)
response = urllib.request.urlopen(request)
class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)
  • headers:是一个字典,请求头
    • 通过修改User-Agent来伪装浏览器,默认的User-Agent是Python-urllib
    • headers也可以用add_header(‘请求头名称‘,‘值‘)方法来直接添加到封装后的请求
  • origin_req_host:请求方的host名称或者IP地址
  • unverifiable:请求是否是没有足够权限接收请求的结果,默认是False,意思有权限
  • method:字符串,用来指示请求使用的方法

Handler工具和OpenerDirector类

利用Handler来构建Opener,Opener可以使用open()方法,返回response.提供了高级的操作(比如Cookies处理、代理设置等)

  • BaseHandler类,它是所有其他Handler的父类,它提供了最基本的方法,例如default_open()、protocol_request()

  • 其他Handler
    • HTTPDefaultErrorHandler:用于处理HTTP响应错误,错误都会抛出HTTPError类型的异常。
    • HTTPRedirectHandler:用于处理重定向。
    • HTTPCookieProcessor:用于处理Cookies。
    • ProxyHandler:用于设置代理,默认代理为空。
    • HTTPPasswordMgr:用于管理密码,它维护了用户名和密码的表。
    • HTTPBasicAuthHandler:用于管理认证,如果一个链接打开时需要认证,那么可以用它来解决认证问题
      + 更多
  • 验证页面(用户名和密码)

from urllib.request import HTTPPasswordMgrWithDefaultRealm, HTTPBasicAuthHandler, build_opener  
from urllib.error import URLError
 
username = ‘username‘
password = ‘password‘
url = ‘http://localhost:5000/‘
 
p = HTTPPasswordMgrWithDefaultRealm()
p.add_password(None, url, username, password)
auth_handler = HTTPBasicAuthHandler(p)
opener = build_opener(auth_handler)  # 用handle构建opener
 
try:
    result = opener.open(url)
    html = result.read().decode(‘utf-8‘)
    print(html)
except URLError as e:
    print(e.reason)
  • 代理
from urllib.error import URLError
from urllib.request import ProxyHandler, build_opener
 
proxy_handler = ProxyHandler({
    ‘http‘: ‘http://127.0.0.1:9743‘,
    ‘https‘: ‘https://127.0.0.1:9743‘
})
opener = build_opener(proxy_handler)
try:
    response = opener.open(‘https://www.baidu.com‘)
    print(response.read().decode(‘utf-8‘))
except URLError as e:
    print(e.reason)
  • cookie
import http.cookiejar, urllib.request

cookie = http.cookiejar.CookieJar()  # 直接获取
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response = opener.open(‘http://www.baidu.com‘)
for item in cookie:
    print(item.name+"="+item.value)

filename = ‘cookies.txt‘  # 写入文件
cookie = http.cookiejar.MozillaCookieJar(filename)  
# MozillaCookieJar是CookieJar的子类,可以用来处理Cookies和文件相关的事件,比如读取和保存Cookies,可以将Cookies保存成Mozilla型浏览器的Cookies格式.LWPCookieJar会保存成libwww-perl(LWP)格式的Cookies文件。
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response = opener.open(‘http://www.baidu.com‘)
cookie.save(ignore_discard=True, ignore_expires=True)

cookie = http.cookiejar.LWPCookieJar()  # 从文件中读取并利用cookie
cookie.load(‘cookies.txt‘, ignore_discard=True, ignore_expires=True)
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response = opener.open(‘http://www.baidu.com‘)
print(response.read().decode(‘utf-8‘))

2.response对象

返回目录

是http.client.HTTPResponse类的实例

方法

  • read([amt]):读取并返回响应正文,或者返回下一个amt字节
  • readinto(b):将响应主体的下一个len(b)字节读入缓冲区b。返回读取的字节数
  • getheader(name, default=None):通过响应头的键返回相应的值,可以多个
  • getheaders():返回响应头
  • fileno():返回fileno底层套接字
  • geturl():返回检索到的资源的URL,通常用于确定是否遵循重定向
  • info():以email.message_from_string()实例的形式返回页面的元信息,例如标题
  • getcode():返回响应的HTTP状态代码

属性

  • status:服务器返回的状态代码,如200
  • reason:服务器返回的原因短语,如ok
  • version:服务器使用的HTTP协议版本
  • closed:如果流被关闭是True
  • debuglevel:一个调试钩子。如果debuglevel大于零,则在读取和解析响应时将消息打印到stdout
  • msg:http.client.HTTPMessage包含响应标头实例,包含reason信息

3.urllib.error(异常处理)

返回目录

URLError

继承自OSError类,是error异常模块的基类

  • reason,即返回错误的原因,reason属性返回的不一定是字符串,也可能是一个对象,例如超时返回socket.timeout类

HTTPError

URLError的子类,专门用来处理HTTP请求错误

  • code:返回HTTP状态码
  • reason:用于返回错误的原因
  • headers:返回请求头

ContentTooShortError(msg, content):不常用

4.urllib.parse(url解析模块)

返回目录

url解析模块,将url字符串拆分到其组件中,或者将url组件合并到url字符串中,支持file、ftp、gopher、hdl、http、https、imap、mailto、 mms、news、nntp、prospero、rsync、rtsp、rtspu、sftp、 sip、sips、snews、svn、svn+ssh、telnet和wais等协议

urlparse()

实现URL的识别和分段

urllib.parse.urlparse(urlstring, scheme=‘‘, allow_fragments=True)
  • urlstring:这是必填项,即待解析的URL
  • scheme:它是默认的协议(比如http或https等),链接没有带协议信息,会将这个作为默认的协议
  • allow_fragments:即是否忽略fragment。如果它被设置为False,fragment部分就会被忽略,它会被解析为path、parameters或者query的一部分,而fragment部分为空

一个标准的连接格式:scheme://netloc/path;parameters?query#fragment,返回结果是一个ParseResult类型的对象,一个6元组,它包含6部分,分别是scheme(协议)、netloc(域名及端口)、path(文件路径)、params(参数)、query(查询组建)和fragment(片段标识符)

urlunparse()

将组建组合为一个url,接受的参数是一个长度为6可迭代对象,返回str类型url

urlsplit()

和urlparse()方法非常相似,不单独解析params这一部分,只返回5个结果。params会合并到path中

urlunsplit()

与urlunparse()类似,长度必须为5

urljoin()

一个base_url(基础链接)作为第一个参数,将新的链接作为第二个参数,该方法会分析base_url的scheme、netloc和path这3个内容并对新链接缺失的部分进行补充,最后返回结果

urlencode()

将字典序列化为GET请求参数(key1=value1&key2=value2形式)

parse_qs()

把一串GET请求参数,转回字典

parse_qsl()

把一串GET请求参数转化为元组组成的列表

quote()

将内容转化为URL编码的格式。URL中带有中文参数时,有时可能会导致乱码的问题,此时用这个方法可以将中文字符转化为URL编码

例如:

keyword = ‘壁纸‘
url = ‘https://www.baidu.com/s?wd=‘ + quote(keyword)

unquote()

进行URL解码

5.urllib.robotparse(robot.txt文件解析模块)

返回目录

Robots协议

名叫作网络爬虫排除标准(Robots Exclusion Protocol),用来告诉爬虫和搜索引擎哪些页面可以抓取,哪些不可以抓取,通常是一个叫作robots.txt的文本文件,一般放在网站的根目录下

User-agent: *  # User-agent描述了搜索爬虫的名称,设置为*则代表该协议对任何爬取爬虫有效
Disallow: /  # Disallow指定了不允许抓取的目录,设置为/则代表不允许抓取所有页面
Allow: /public/ # Allow一般和Disallow一起使用,用来排除某些限制,这里表示所有页面不允许抓取,但可以抓取public目录

爬虫名称

BaiduSpider:百度;Googlebot:谷歌;360Spider:360搜索;YodaoBot:有道;其它

robotparse

rb = urllib.robotparser.RobotFileParser([robots.txt的url])  # 创键RobotFileParser对象
  • set_url():用来设置robots.txt文件的链接
  • read():读取robots.txt文件并进行分析,如果不调用这个方法,接下来的判断都会为False
  • parse():用来解析robots.txt文件,传入的参数是robots.txt某些行的内容,它会按照robots.txt的语法规则来分析这些内容
  • can_fetch():该方法传入两个参数,第一个是User-agent,第二个是要抓取的URL。返回的内容是该搜索引擎是否可以抓取这个URL,返回结果是True或False
  • mtime():返回的是上次抓取和分析robots.txt的时间,这对于长时间分析和抓取的搜索爬虫是很有必要的,需要定期检查来抓取最新的robots.txt
  • modified():它同样对长时间分析和抓取的搜索爬虫很有帮助,将当前时间设置为上次抓取和分析robots.txt的时间。

例子 :

from urllib.robotparser import RobotFileParser
 
rp = RobotFileParser()
rp.set_url(‘http://www.jianshu.com/robots.txt‘)
rp.read()
#或rp.parse(urlopen(‘http://www.jianshu.com/robots.txt‘).read().decode(‘utf-8‘).split(‘\n‘))
print(rp.can_fetch(‘*‘, ‘http://www.jianshu.com/p/b67554025d7d‘))

urllib库

标签:读取   sch   中文参数   timeout   允许   otf   cap   col   pre   

原文地址:https://www.cnblogs.com/Wang-Y/p/9343364.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!