selenium简介
Selenium是一个用于Web应用程序自动化测试工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。
主要功能... ...
分类:
其他好文 时间:
2019-06-29 19:30:02
阅读次数:
469
今日内容: 一 爬虫原理 二 Requests请求库 一 爬虫原理 1.什么是互联网? 指的是由一堆网络设备,把一台台的计算机互联网到一起称之为互联网。 2.互联网建立的目的? 互联网建立的目的是为了数据的传递以及数据的共享。 3.什么是数据? 例如淘宝、京东商品信息等... 东方财富、雪... ...
分类:
其他好文 时间:
2019-06-29 15:14:13
阅读次数:
134
Requests安装 使用pip安装命令: 打开cmd,输入python然后导入requests如果安装成功没有任何提示 如果提示如下则说明安装失败 Requests 基础应用 发送不同类型HTTP请求 requests库内置了不同的方法来发送不同类型的http请求,用法如下所示: 执行结果,200 ...
分类:
编程语言 时间:
2019-06-29 00:54:42
阅读次数:
109
你在学习 python 自动化测试吗?听过 requests 库吗?tablib 是 requests 库作者常年维护的一个可以操作 Excel 等多种文件格式,将他们变成一种通用数据集的第三方库。 tablib 支持的主要数据格式有: xls, 老版 office 的 excel 文件格式; xl ...
分类:
其他好文 时间:
2019-06-28 15:05:11
阅读次数:
114
1. 开始 Python 中可以进行网页解析的库有很多,常见的有 BeautifulSoup 和 lxml 等。在网上玩爬虫的文章通常都是介绍 BeautifulSoup 这个库,我平常也是常用这个库,最近用 Xpath 用得比较多,使用 BeautifulSoup 就不大习惯,很久之前就知道 Re ...
分类:
Web程序 时间:
2019-06-28 14:38:22
阅读次数:
146
""" scrapy初始Url的两种写法, 一种是常量start_urls,并且需要定义一个方法parse() 另一种是直接定义一个方法:star_requests() """ import scrapy class simpleUrl(scrapy.Spider): name = "simpleU ...
分类:
编程语言 时间:
2019-06-27 21:53:37
阅读次数:
151
今日内容: 一 爬虫原理 二 Requests请求库 一 爬虫原理 1.什么是互联网? 指的是由一堆网络设备,把一台台的计算机互联网到一起称之为互联网。 2.互联网建立的目的? 互联网建立的目的是为了数据的传递以及数据的共享。 3.什么是数据? 例如淘宝、京东商品信息等... 东方财富、雪球网的一些 ...
分类:
编程语言 时间:
2019-06-27 00:56:27
阅读次数:
104
今日内容: 一、爬虫原理 二、Requests请求库 一、爬虫原理 1、什么是互联网? 互联网其实是由一堆网络设备(比如: 网线、路由器、交换机、防火墙等等...)与一台台的计算机连接而成,就像一张蜘蛛网一样。2、互联网建立的目的 互联网的核心价值: 数据是存放在一台台计算机中的,而互联网是把计算机 ...
分类:
编程语言 时间:
2019-06-26 23:11:40
阅读次数:
268
pip install requests 这是python安装第三方库的命令。 使用时老是提示如下错误: NameError: name 'pip' is not defined 解决方法: 打开cmd 后不要打开python,而是直接在cmd下输入 pip install requests 就OK ...
分类:
其他好文 时间:
2019-06-26 19:15:55
阅读次数:
100
话不多说,直接上代码 测试代码 服务端 下面是用flask做的一个服务端,用来设置cookie以及打印请求时的请求头 客户端 先启动服务端,再启动客户端 运行结果 服务端打印结果 客户端打印结果 总结及使用建议 通过服务端打印可以看出,如果我们不设置User Agent, requests模块的请求 ...
分类:
编程语言 时间:
2019-06-26 18:04:01
阅读次数:
287