码迷,mamicode.com
首页 >  
搜索关键字:nfs handle df mount fuser    ( 14012个结果
08 学生课程分数的Spark SQL分析
一. 读学生课程分数文件chapter4-data01.txt,创建DataFrame。 1.生成“表头” 2.生成“表中的记录” 3.把“表头”和“表中的记录”拼装在一起 用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 df_scs. ...
分类:数据库   时间:2021-05-24 16:51:04    阅读次数:0
Linux 指令 & 快捷键
Linux 指令 & 快捷键 指令 date 时间 cal 日历 df 磁盘状态 free 内存状态 exit 退出会话 pwd 显示工作目录 ls ${paths} 显示文件列表 ls -a 显示隐藏文件 ls -l 长模式输出 ls -t 根据修改时间倒序排序 ls -r 翻转结果顺序 ls - ...
分类:系统相关   时间:2021-05-24 16:23:20    阅读次数:0
Handle详解
首先通过一个函数启动一个服务器,只提供一个方法并返回Hello World!,当你在浏览器输入http://127.0.0.1:8080,就会看到Hello World。 对于http.ListenAndServe来说,需要我们提供一个Addr和一个Handler,所以当我们使用Hello实现了Ha ...
分类:其他好文   时间:2021-05-24 16:11:42    阅读次数:0
08 学生课程分数的Spark SQL分析
用DataFrame的操作或SQL语句完成以下数据分析要求,并和用RDD操作的实现进行对比: 每个分数+5分。 df_scs.select('name', 'course', df_scs.score+5).show() 总共有多少学生? 总共开设了哪些课程? df_scs.select('name ...
分类:数据库   时间:2021-05-24 15:33:34    阅读次数:0
centos8忘记密码重置密码
启动服务器时,按'e'进入编辑模式 在linux开头的那一行结尾加上'rd. break',并修改读写模式引导系统(默认是ro只读) 修改完后按'ctrl+x'进入紧急模式: mount查看系统根挂载情况: 如果是只读,则需要重新挂载 mount -o remount,rw /sysroot chr ...
分类:其他好文   时间:2021-05-24 12:05:34    阅读次数:0
CentOS7 基于lvm扩容根目录
Linux操作系统安装好之后,可以通过 df -h 命令查看磁盘挂载信息和空间使用率 [root@localhost ~]# df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 7.8G 0 7.8G 0% /dev tmpfs 7.8 ...
分类:其他好文   时间:2021-05-24 11:10:34    阅读次数:0
从rdd创建dataFrame框架
1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E ...
分类:其他好文   时间:2021-05-24 09:56:09    阅读次数:0
Pulsar部署和实践(一)
前言 本地Docker部署Pulsar消息代理实现消息发布和消息订阅 介绍 相关概念,后面有时间再花时间整理下。 实践步骤 1.使用dokcer本地部署pulsar docker run -it \ -p 6650:6650 \ -p 8080:8080 \ --mount source=pulsa ...
分类:其他好文   时间:2021-05-24 09:51:07    阅读次数:0
07 从RDD创建DateFrame
1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E ...
分类:其他好文   时间:2021-05-24 09:49:29    阅读次数:0
07 从RDD创建DataFrame
1.pandas df 与 spark df的相互转换 df_s=spark.createDataFrame(df_p) df_p=df_s.toPandas() 2. Spark与Pandas中DataFrame对比 http://www.lining0806.com/spark%E4%B8%8E ...
分类:其他好文   时间:2021-05-24 09:44:52    阅读次数:0
14012条   上一页 1 ... 6 7 8 9 10 ... 1402 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!