码迷,mamicode.com
首页 >  
搜索关键字:items    ( 3511个结果
django中的cookie和session
http请求无状态: 所谓http是无状态协议,言外之意是说http协议没法保存客户机信息,也就没法区分每次请求的不同之处。 保持http状态的技术cookie和session: cookie: cookie:cookie的出现就是为了解决http请求无状态的问题,第一次登录后服务器返回一些数据(c ...
分类:其他好文   时间:2018-10-04 10:13:53    阅读次数:171
弹性布局的属性
弹性布局的属性 [TOC] 属性及作用 1、 display:flex; 弹性布局,父级 2、 flex deriction 方向,父级 3、 flex wrap 换行,父级 4、 justify content 水平对齐方式,写在父级 5、 align items 垂直对齐方式,写在父级 6、 a ...
分类:其他好文   时间:2018-10-04 00:03:21    阅读次数:762
Android获取系统时间方法的总结
Android获取系统时间方法的方法有很多种,常用的有Calendar、Date、currentTimeMills等方法。 (1)Calendar Calendar获取系统时间首先要用Calendar.getInstance()函数获取一个实例,再为该实例设定时区(中国的时区为GMT+8:00),最 ...
分类:移动开发   时间:2018-10-02 17:46:37    阅读次数:188
爬虫 -----爬取百度时事热点和url
使用scrapy top.py 爬虫主要工作 pipelines.py 数据保存 main.py 执行脚本 items.py 初始化item ...
分类:Web程序   时间:2018-10-02 17:29:33    阅读次数:265
PYTHON PYQUERY 基本用法
引用方法 from pyquery import PyQuery as pq 基本CSS选择器 from pyquery import PyQuery as pq html = ''' <div id="wrap"> <ul class="s_from"> asdasd <link href="ht ...
分类:编程语言   时间:2018-09-29 17:37:52    阅读次数:144
通过使用scrapy爬取某学校全网
通过遍历全网url 实现爬取全网内容 忽略“.doc"等文件网页暂不处理,只爬取整个页面,不做清洗 spider.py # -*- coding: utf-8 -*- import scrapy from WSYU.items import WsyuItem import datetime from ...
分类:其他好文   时间:2018-09-27 23:57:41    阅读次数:310
python 根据字典的键值进行排序
1、利用key排序 d1 2d2 4d3 3d4 1 2、利用value排序:__getitem__ d4 1d1 2d3 3d2 4 反序:reverse=True d2 4d3 3d1 2d4 1 3、对dict_items进行排序 [('d2', 4), ('d3', 3), ('d1', 2 ...
分类:编程语言   时间:2018-09-27 13:04:19    阅读次数:163
CSS编码规范
页面布局 页面布局均采用最新版 flexbox 进行布局,需兼容低版本 IE 项目除外。 .selector { display: flex; justify-content: center; align-items: center; } 缩进 使用 4 个空格作为一个缩进层级,不允许使用 2 个空 ...
分类:Web程序   时间:2018-09-27 11:18:36    阅读次数:214
scrapy框架项目:抓取链家 全武汉的二手房信息
import scrapyimport refrom collections import Counterfrom lianjia.items import LianjiaItemclass LianjiaSpiderSpider(scrapy.Spider): name = 'lianjia_sp ...
分类:其他好文   时间:2018-09-27 01:53:07    阅读次数:148
scrapy框架项目:抓取全部知乎用户信息,并且保存至mongodb
import scrapyimport json,time,refrom zhihuinfo.items import ZhihuinfoItemclass ZhihuSpider(scrapy.Spider): name = 'zhihu' allowed_domains = ['www.zhih ...
分类:数据库   时间:2018-09-27 01:45:24    阅读次数:235
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!