码迷,mamicode.com
首页 >  
搜索关键字:hdfs hbase shell ambari hadoop    ( 45642个结果
Flink实例(116):flink-sql使用(二十二)以upsert的方式读写Kafka数据——以Flink1.12为例(一)
来源:https://mp.weixin.qq.com/s/Tb8GtabOVBvx88de0C4ncw 0 背景 在某些场景中,比如GROUP BY聚合之后的结果,需要去更新之前的结果值。这个时候,需要将 Kafka 消息记录的 key 当成主键处理,用来确定一条数据是应该作为插入、删除还是更新记 ...
分类:数据库   时间:2021-01-27 13:12:51    阅读次数:0
Mysql Get Shell 姿势整理
日志写shell show variables like 'general_log'; -- 查看日志是否开启 set global general_log=on; -- 开启日志功能 show variables like 'general_log_file'; -- 看看日志文件保存位置 set ...
分类:数据库   时间:2021-01-26 12:40:46    阅读次数:0
hexo-theme-next主题配置
由于个人感觉,找图片困难(有选择困难症......),虽然使用了图床,但是原本使用的Butterfly主题需要配置图片让我有点难受(是我太菜了)。现在切换为最新的NexT主题,记录当前主题配置。 ...
分类:其他好文   时间:2021-01-26 12:40:13    阅读次数:0
利用 Linux col 命令过滤手册文档中的控制符
Linux col命令用于过滤控制字符。 在许多UNIX说明文件里,都有RLF控制字符。当我们运用shell特殊字符">"和">>",把说明文件的内容输出成纯文本文件时,控制字符会变成乱码,col指令则能有效滤除这些控制字符。 语法 col [-bfx][-l<缓冲区列数>] 参数: -b 过滤掉所 ...
分类:系统相关   时间:2021-01-26 12:35:26    阅读次数:0
just a demo
<!-- demodemo.xml --><dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-mapreduce-client-core</artifactId> <version>2.7.0</version> ...
分类:其他好文   时间:2021-01-26 12:23:58    阅读次数:0
# Dockerfile命令详解
Dockerfile介绍 Dockerfile类似于shell的脚本,由一条条指令组成,Docker进程可以通过读取Dockerfile中的指令,依据指令内容自动构建生成镜像。 dockerfile 官方文档 Dockerfile常用指令 FROM LABEL RUN EXPOSE COPY ADD ...
分类:其他好文   时间:2021-01-25 11:36:58    阅读次数:0
Spark面试常见问题(一)--RDD基础
1 RDD基础知识 1.1 Spark的RDD五大特性 1.1.1 A list of partitions RDD是一个由多个partition(某个节点里的某一片连续的数据)组成的的List;将数据加载为RDD时,一般一个hdfs里的block会加载为一个partition。 对于RDD来说,每 ...
分类:其他好文   时间:2021-01-25 11:30:09    阅读次数:0
Docker执行php脚本,可写shell定时任务
docker exec -it php php /www/my_project/think version >> my.log docker exec -it php 执行容器 php /www/my_project/think version 执行php指令 并将执行结果写入日志 ...
分类:Web程序   时间:2021-01-25 10:34:25    阅读次数:0
source命令详解
1.souce:在当前bash环境下读取并执行FileName中的命令。 可以在shell启动前加载环境变量 weidiandeMacBook-Pro:myshworkspace weidian$ pwd /Users/weidian/myshworkspace weidiandeMacBook-P ...
分类:其他好文   时间:2021-01-22 12:29:08    阅读次数:0
三、zookeeper常用shell命令
一、新增节点 语法 #其中-s 为有序节点,-e 临时节点 create [-s] [-e] path data 创建持久化节点并写入数据: # 创建hadoop节点并写入数据123456: create /hadoop "123456" 创建持久化有序节点,此时创建的节点名为指定节点名 + 自增序 ...
分类:系统相关   时间:2021-01-22 12:13:51    阅读次数:0
45642条   上一页 1 ... 36 37 38 39 40 ... 4565 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!