MongoDB导入导出以及数据库备份 MongoDB数据导入与导出 1、导出工具:mongoexport 1、概念: mongoDB中的mongoexport工具可以把一个collection导出成JSON格式或CSV格式的文件。可以通过参数指定导出的数据项,也可以根据指定的条件导出数据。 2、语法 ...
分类:
数据库 时间:
2019-11-17 19:25:05
阅读次数:
76
navcat excel数据导入mysql的方法 先navcat导出 xls格式 然后把数据复制到往这个xls里 (按照这个xls格式) 然后导入mysql就行了 如果导入的过程无法识别excel里的内容 就想办法第一行能识别 自己重新输入下 就行 一般都是格式问题 第一行通过就行了 下面是通过ph ...
分类:
数据库 时间:
2019-11-16 14:53:07
阅读次数:
90
原文连接:https://www.cnblogs.com/654wangzai321/p/9970321.html 把Hive表数据导入到本地 table->local file insert overwrite local directory '/root/hive_test/1.txt' sel ...
分类:
数据库 时间:
2019-11-14 09:42:54
阅读次数:
93
今天我们课上做了一个关于数据清洗的实验,具体实验内容如下: 1.数据清洗:按照进行数据清洗,并将清洗后的数据导入hive数据库中; 2.数据处理: ·统计最受欢迎的视频/文章的Top10访问次数 (video/article) ·按照地市统计最受欢迎的Top10课程 (ip) ·按照流量统计最受欢迎 ...
分类:
其他好文 时间:
2019-11-14 00:16:22
阅读次数:
133
数据清洗:按照进行数据清洗,并将清洗后的数据导入hive数据库中 利用mapreduce完成将txt文件中数据存放在一个数组中,未成功连接hive数据库并存放在hive数据库中 目前完成代码: package org.apache.hadoop.examples; import java.io.IO ...
分类:
其他好文 时间:
2019-11-14 00:02:36
阅读次数:
80
1、 数据清洗:按照进行数据清洗,并将清洗后的数据导入hive数据库中。 两阶段数据清洗: (1)第一阶段:把需要的信息从原始日志中提取出来 ip: 199.30.25.88 time: 10/Nov/2016:00:01:03 +0800 traffic: 62 文章: article/11325 ...
分类:
数据库 时间:
2019-11-14 00:02:19
阅读次数:
222
题目要求: 1、 数据清洗:按照进行数据清洗,并将清洗后的数据导入hive数据库中。 两阶段数据清洗: (1)第一阶段:把需要的信息从原始日志中提取出来 ip: 199.30.25.88 time: 10/Nov/2016:00:01:03 +0800 traffic: 62 文章: article ...
分类:
其他好文 时间:
2019-11-13 23:53:43
阅读次数:
176
虚拟机: hadoop:3.2.0 hive:3.1.2 win10: eclipse 两阶段数据清洗: (1)第一阶段:把需要的信息从原始日志中提取出来 ip: 199.30.25.88 time: 10/Nov/2016:00:01:03 +0800 traffic: 62 文章: articl ...
分类:
数据库 时间:
2019-11-13 22:25:39
阅读次数:
162
GaussDB200支持将存在远端服务器上的TEXT、CSV和FIXED格式的数据导入到集群中。本文介绍使用GDS(GaussDataService)工具将远端服务器上的数据导入GaussDB200。环境如下表:1、准备源数据这里从PostgreSQL数据库中,使用copy命令导出一个csv格式的文件,如下:rhnschema=>copyrhnpackagefileto‘/tmp/rhnpa
分类:
数据库 时间:
2019-11-04 15:39:58
阅读次数:
401
1.设置默认存储引擎? # vim /etc/my.cnf [mysqld] ....... default-storage-engine=myisam # systemctl restart mysqld 接着查看默认存储引擎: 2. myisam存储引擎 ? 主要特点 - 支持表级锁 - 不支持 ...
分类:
数据库 时间:
2019-11-04 12:02:30
阅读次数:
90