keepalive的配置文件 使用的脚本:/root/check_code.py (该脚本检查http的状态吗,如果不是200,则关闭keepalive服务,使VIP漂移到备份机上) #!/usr/bin/env python import urllib2 import os url = 'http ...
分类:
其他好文 时间:
2017-02-14 12:01:55
阅读次数:
236
一、最简单的使用 import urllib,urllib2 response = urllib2.urlopen("https://www.baidu.com") print response.read() 二、构造Request对象 request = urllib2.Request("http ...
分类:
Web程序 时间:
2017-02-06 14:37:13
阅读次数:
221
#encoding=utf-8 from urllib.request import urlopen import random import os ''' 1. 定义一个fuc(url, folder_path) 获取url地址的内容,保存到folder_path的文件目录下,并随机生成一个文件名... ...
分类:
编程语言 时间:
2017-02-03 19:47:21
阅读次数:
287
爬贴吧小说。 爬取该链接中的楼主发言前10页另存为文本文件 python2.7 ...
分类:
其他好文 时间:
2017-01-24 19:15:32
阅读次数:
198
fromurllib.requestimporturlopenfromurllib.errorimportHTTPErrorfrombs4importBeautifulSoupdefgetTitle(url):try:html=urlopen(url)exceptHTTPErrorase:#服务器错误returnnonetry:obj=BeautifulSoup(html,"html.parser")title=obj.body.h1exceptAttributeErrorase:#属性错误..
分类:
其他好文 时间:
2017-01-20 13:27:54
阅读次数:
147
#GET: #!/usr/bin/env python# -*- coding:utf-8 -*-import urllib2def get(): URL = 'www.baidu.com' #页面的地址 response = urllib2.urlopen(URL) #调用urllib2向服务器发 ...
分类:
编程语言 时间:
2017-01-18 11:51:27
阅读次数:
210
一个简单的爬虫练习 import urllib.request import re def getHtml(url): page = urllib.request.urlopen(url) #read()返回的结果是二进制的需要转换成字符串 html =page.read().decode("utf... ...
分类:
编程语言 时间:
2017-01-17 10:39:20
阅读次数:
173
1.最简单用法 urlopen(url, data=None, timeout=socket._GLOBAL_DEFAULT_TIMEOUT,...) 1 import urllib2 2 import urllib 3 4 5 response = urllib2.urlopen("http:// ...
分类:
编程语言 时间:
2017-01-15 19:23:17
阅读次数:
398
import urllib#调用urllib模块 import re#调用正则模块 def getHtml(url): if url is None:#如果url为空的话直接return return html=urllib.urlopen(url)#使用urllib.urlopen打开网页 if ... ...
分类:
其他好文 时间:
2017-01-11 08:18:58
阅读次数:
320
urllib2是python自带的模块,有简单请求方法,也有复杂的http验证,http代理方法,今天就介绍几个基本的http请求方法urllib2.urlopenurllib2.urlopen(url,data=None,timeout=1,cafile=None,capath=None,cadefault=False,context=None)
下面是urllib2发起http请求,获取httpcode..
分类:
编程语言 时间:
2017-01-07 14:12:41
阅读次数:
197