import pandas as pd import numpy as np df = pd.read_csv('h:/James_Harden.csv',encoding='utf8') df.tail() 最后5场比赛数据 pandas.pivot_table - pandas 0.21.0 d ...
分类:
其他好文 时间:
2020-03-18 22:02:56
阅读次数:
116
su:Swith user 切换用户,切换到root用户cat: Concatenate 串联uname: Unix name 系统名称df: Disk free 空余硬盘du: Disk usage 硬盘使用率chown: Change owner 改变所有者chgrp: Change group ...
分类:
系统相关 时间:
2020-03-17 00:03:07
阅读次数:
97
import pandas as pd import numpy as np df = pd.DataFrame(np.arange(10).reshape(5,2),index=list("cvbnm"),columns=list('AB')) print(df) print(" ") print ...
分类:
其他好文 时间:
2020-03-16 21:57:38
阅读次数:
72
发现空间还有挺多的,就想到可能是inode满了,用df -hi查看发现根目录下的inode使用率确实100%。 然后就开始查找哪个目录,在 / 下面执行: for i in ./*; do echo $i; find $i |wc -l; done 观看结果,然后找到inode多的目录再一级级查找下 ...
分类:
其他好文 时间:
2020-03-16 16:21:46
阅读次数:
68
1. DataFrame 本片将介绍Spark RDD的限制以及DataFrame(DF)如何克服这些限制,从如何创建DataFrame,到DF的各种特性,以及如何优化执行计划。最后还会介绍DF有哪些限制。 2. 什么是 Spark SQL DataFrame? 从Spark1.3.0版本开始,DF ...
分类:
其他好文 时间:
2020-03-16 12:56:06
阅读次数:
95
samba启动失败,原因为主盘磁盘占用率为100% 用以下命令找到占用磁盘空间较大的文件,查看是否可以删掉;df // 查看磁盘占用率du -h --max-depth=1 // 查看当前目录下各个文件以及文件夹占用空间 最终发现,/var/log文件下有几个上G的日志文件,把它们删掉就可以! ...
分类:
其他好文 时间:
2020-03-16 09:53:11
阅读次数:
70
方法(一)通过字典追加(列名要一致) data={'a':50,'b':60,'c':70} df=df.append(data,ignore_index=True) 方法(二)通过Serise 1 data=pd.Serise([50,60,70],index=list('abc')) 2 df= ...
分类:
移动开发 时间:
2020-03-14 23:28:18
阅读次数:
934
8086汇编 rep 指令 rep指令常和串传送指令搭配使用功能:根据cx的值,重复执行后面的指令 串传送指令1: movsb 功能:(以字节为单位传送) (1) ((es)×16 + (di)) = ((ds) ×16 + (si)) (2) 如果DF = 0则: (si) = (si) + 1 ...
分类:
其他好文 时间:
2020-03-14 21:43:05
阅读次数:
56
df['温度']=df['温度'].str.replace('℃','').astype('int32') ...
分类:
其他好文 时间:
2020-03-14 16:56:13
阅读次数:
38
数据 查询 a1=a2 并且 a1=a3 的所有数据 格式:df[ ( ) & ( ) ] df[(df['a1']==df['a2'])&(df['a1']==df['a3'])] ...
分类:
其他好文 时间:
2020-03-13 21:01:41
阅读次数:
63