这是2.x转3.x问题 2.x写法: 3.x写法: 问题解决。 ...
分类:
Web程序 时间:
2018-08-29 01:06:40
阅读次数:
237
importurllib.requestimportredefgetnvvel():html=urllib.request.urlopen("http://www.quanshuwang.com/book/44/44683").read().decode(‘gbk‘)#downloadsouldcodeurls=re.findall(r‘<li&g
分类:
编程语言 时间:
2018-08-26 18:21:30
阅读次数:
227
#闭包,嵌套函数,内部函数调用外部函数的变量 # def outer(): # a = 1 # def inner(): # print(a) # return inner # # inn = outer() # inn() # # from urllib.request import urlope... ...
分类:
其他好文 时间:
2018-08-25 20:13:13
阅读次数:
129
1 import urllib.request 2 url = "http://www.baidu.com/s?wd=" #get网址格式:“https://www.baidu.com/s?wd=关键字” 3 key="周杰伦" 4 key_code=urllib.request.quote(key... ...
分类:
编程语言 时间:
2018-08-25 18:55:49
阅读次数:
165
进行requests库学习的时候,报Max retries exceeded with url错误,网上查询说是,用下面这个解决方法没用,后来关闭了fiddler后发现就可以了,可能fiddler开的连接数太多了 http连接太多没有关闭导致的。 解决办法: 1、增加重试连接次数 1 2、关闭多余的 ...
分类:
Web程序 时间:
2018-08-25 11:22:32
阅读次数:
374
>>> import urllib.request>>> response = urllib.request.urlopen("http://www.fishc.com")>>> a = response.read() >>> a = a.decode("utf-8") >>> print(a) 课 ...
分类:
其他好文 时间:
2018-08-23 19:32:03
阅读次数:
194
2018-08-23 13:07:57 对于请求一些网站,我们需要加上请求头才可以完成网页的抓取,不然会得到一些错误,无法返回抓取的网页。下面,介绍两种添加请求头的方法。 方法一:借助build_opener和addheaders完成 注意:此处的headers要写为一个元组类型才可以。写为字典类型 ...
分类:
Web程序 时间:
2018-08-23 14:22:11
阅读次数:
338
多文件抽取有:只获取url,或直接下载,下面是怎么将数据下载下来,并显示进度。 本节主要介绍urllib模块提供的urlretrieve()函数。urlretrieve()方法直接将远程数据下载到本地,函数模型: urlretrieve(url, filename None, reporthook= ...
分类:
编程语言 时间:
2018-08-23 02:26:34
阅读次数:
344
1 from urllib.request import urlopen 2 from bs4 import BeautifulSoup 3 import re 4 import random 5 import datetime 6 7 pages = set() 8 random.seed(dat... ...
分类:
编程语言 时间:
2018-08-21 00:28:22
阅读次数:
325