码迷,mamicode.com
首页 > 编程语言 > 详细

python序列化模块

时间:2020-02-14 22:47:54      阅读:114      评论:0      收藏:0      [点我收藏+]

标签:dump   lse   fir   情况下   pytho   asc   中文   记录   方便   

1. 序列化一般用于二个地方: 

    1> 数据存储,如写文件,数据入库

    2> 网络上传输数据的时候

2. 序列化/反序列化:

    1> 序列化:从数据类型(int,dict,tuple,list等) --> 字符串的过程

    2> 反序列化:从字符串 --> 数据类型的过程

3. json (常用模块):

     1> 通用的序列化格式

     2> 只有很少的一部分数据类型能通过json转化为字符串

     3>  json能序列化的数据类型有:数字,字符串,列表,字典,元组(序列化时当成列表序列化的)

#json  dumps序列化方法  loads反序列化方法
import json
dic={"k":"v"}
print(type(dic),dic)

str_d=json.dumps(dic)  #序列化
print(type(str_d),str_d)
#json格式: ‘{"k1":"v1"}‘ , 外面是一个单引号,内部的所有字符串都要使用双引号引起来

dic_d=json.loads(str_d)  #反序列化
print(type(dic_d),dic_d)

技术图片

     4> dump:将数据序列化到文件中(只有字符串才能写入文件)

import  json

# dump:与文件相关的操作
dic = {a:‘中国,b:22}
f=open(ff,w,encoding=utf-8)

json.dump(dic,f,ensure_ascii=False)  #序列化, ensure_ascii为False时,中文字符写入文件中后仍为中文
f.close()

    5> load: 将文件中的字符中反序列化成原数据类型的数据

import json

f=open(ff,r,encoding=‘utf-8‘) #ff是一个已存的文件,写了一个字典的数据 
dic_d =json.load(f) #反序列化
f.close()
print(type(dic_d),dic_d)

技术图片

    重点:

            a> dumps/loads: 直接操作内存中的数据类型;

            b> dump/load:直接操作文件中的数据;

            c> dump/load:dump可以将多次写入内容到文件中,但是写入后,load无法多次读出,因为不知道每次读到哪里;

            d> 所以dump和load使用时,一次性写入全部内容,再一次性读出所有内容;

    6> 如果想多次写入内容后,再多次读出来,怎么办?

import  json

#一个一个字典的写入
list_1 = [{a:中国},{b:22},{c:33}]
f=open(ff,w,encoding=utf-8)
for dic in list_1:
    str_dic=json.dumps(dic,ensure_ascii=False)
    f.write(str_dic+\n)
f.close()

#一行一行读出
f=open(ff,encoding=utf-8)
list_2=[]
for line in f:
    dic=json.loads(line.strip()) #strip()去掉换行
    list_2.append(dic)
f.close()
print(list_2)

技术图片

 

4. pickle:

     1> 所有的python中的数据类型都可以通过pickle转化成字符串;

     2> pickle序列化的内容只有python能识别;

     3> 部分反序列化依赖python代码;

     4> 同json一样,常用方法有 dumps/loads,dump/load;

     5> dumps出来的内容为base格式(二进制)字符串;

     6> dump和load时,对于文件的写入和读出,要用‘wb‘和‘rb’形式;

     7> dump和load,可以多次dump内容写入文件,再多次load从文件中读出;

import  pickle,time
struct_time1=time.localtime(1000000000)
struct_time2=time.localtime(2000000000)
print(struct_time1)
print(struct_time2)
f=open(pickle_file,wb)
pickle.dump(struct_time1,f)  #可以多次dump写入
pickle.dump(struct_time2,f)
f.close()

f=open(pickle_file,rb)
struct_time1=pickle.load(f)  #再多次load读出
struct_time2=pickle.load(f)
print(struct_time1.tm_year)
print(struct_time2.tm_year)

技术图片

5. shelve:

     1> 操作简单,序列化句柄;

     2> 使用句柄直接操作,非常方便;

     3> 只有一个open方法,通过key来访问,用法类似字典;

import shelve
f=shelve.open(shelve_file)
f[firt]={int:10,float:9.5,string:Sample data} #直接对文件句柄f操作,就可以存入数据
f[second]={1,2.4,aa,(中国,bb)} #写入后,会生成一些后缀为.bak,.dat,.dir文件
f.close()

f1=shelve.open(shelve_file)
existing1=f1[firt] #取出数据时也只需要直接用key获取即可,但是若key不存在会报错
existing2=f1[second]
f1.close()
print(existing1)
print(existing2)

技术图片

 

      4> shelve在默认情况下不会记录持久化对象的任务修改,需要在shelve.open()时修改默认参数writeback,否则对象的修改不会保存

import shelve
f1=shelve.open(shelve_file)
print(f1[firt])
f1[firt][new_value]=this was a new add value
print(f1[firt]) #新增加的内容没有保存下来
f1.close()

技术图片

 

import shelve
f1=shelve.open(shelve_file,writeback=True)
print(f1[firt])
f1[firt][new_value]=this was a new add value
print(f1[firt]) #新增加的内容保存下来了!!
f1.close()

技术图片

     5> writeback优化点:

           a> 优化:让对象的持久化对用户更加的透明了;

           b> 缺点:shelve在open()时增加额外内存,当DB在close()时,会将缓存中每个对象都重新写入DB,因为shelve无法知道缓存中哪些对象修改了,哪些对象没有修改;

python序列化模块

标签:dump   lse   fir   情况下   pytho   asc   中文   记录   方便   

原文地址:https://www.cnblogs.com/quiet-sun/p/12307563.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!