码迷,mamicode.com
首页 > 数据库 > 详细

mongodb

时间:2020-05-26 00:57:29      阅读:83      评论:0      收藏:0      [点我收藏+]

标签:bak   地址   iptable   cst   就是   条件   第一个   option   workload   

第1章 MongoDB和MySQL逻辑结构对比

Mongodb 逻辑结构                         MySQL逻辑结构
库database                                 库
集合(collection)                          表
文档(document)                            数据行
mongodb支持tab键

第2章 MongoDB的安装部署

1.1 安装条件

(1)redhat或centos6.2以上系统
(2)系统开发包完整
(3)ip地址和hosts文件解析正常
(4)iptables防火墙&SElinux关闭
(5)关闭大页内存机制
########################################################################
root用户下
在vim /etc/rc.local最后添加如下代码
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
  echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi
if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
   echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi
加入开启加载以后,重新加载一下
[root@mongo ~]# sh /etc/rc.local
显示如下结果就是正确的
[root@mongo ~]# cat /sys/kernel/mm/transparent_hugepage/defrag  
always madvise [never]
[root@mongo ~]# cat  /sys/kernel/mm/transparent_hugepage/enabled
always madvise [never]
以上是Centos7的系统,其他系统关闭参照官方文档:   
https://docs.mongodb.com/manual/tutorial/transparent-huge-pages/
---------------
为什么要关闭?
Transparent Huge Pages (THP) is a Linux memory management system 
that reduces the overhead of Translation Lookaside Buffer (TLB) 
lookups on machines with large amounts of memory by using larger memory pages.
However, database workloads often perform poorly with THP, 
because they tend to have sparse rather than contiguous memory access patterns. 
You should disable THP on Linux machines to ensure best performance with MongoDB. 

1.2 mongodb安装

第一个里程:创建所需用户

useradd mongod
passwd mongod

第二个里程:创建mongodb所需目录结构

 mkdir -p /mongodb/conf
 mkdir -p /mongodb/log
 mkdir -p /mongodb/data

第三个里程:上传并解压软件到指定位置

 cd   /data
 tar xf mongodb-linux-x86_64-rhel70-3.6.12.tgz 
把解压出来的目录下的bin目录复制到/mongodb目录下方便调用
 cp -r /data/mongodb-linux-x86_64-rhel70-3.6.12/bin/ /mongodb

第四个里程:设置目录结构权限

[root@mongo /mongodb]# chown -R mongod:mongod /mongodb

第五个里程:设置用户环境变量

官方建议是用mongoddb专门的用户来管理mongodb所以要切换到管理用户下来设置环境变量
[root@mongo ~]# su - mongod
[mongod@mongo ~]$ vi .bash_profile
export PATH=/mongodb/bin:$PATH
[mongod@mongo ~]$ source .bash_profile

第六个里程:启动mongodb

[mongod@mongo ~]$ mongod --dbpath=/mongodb/data --logpath=/mongodb/log/mongodb.log --port=27017 --logappend --fork 
about to fork child process, waiting until server is ready for connections.
forked process: 1731
child process started successfully, parent exiting

第七个里程:登录mongodb

[mongod@mongo ~]$ mongo

第3章 配置文件说明

1.1 YMAL格式的配置文件

YAML模式
NOTE:
YAML does not support tab characters for indentation: use spaces instead.
#ymal格式是不能用tab键的,要用空格键,同时还要注意缩进
--系统日志有关  
systemLog:
   destination: file        
   path: "/mongodb/log/mongodb.log"    --日志位置
   logAppend: true                     --日志以追加模式记录
--数据存储有关   
storage:
   journal:
      enabled: true
   dbPath: "/mongodb/data"            --数据路径的位置
-- 进程控制  
processManagement:
   fork: true                         --后台守护进程
   pidFilePath: <string>              --pid文件的位置,一般不用配置,可以去掉这行,自动生成到data中    
--网络配置有关   
net:            
   bindIp: <ip>                       -- 监听地址(3.6版本以前可以不用设置,3.6版本开始必须设置,不设置远程登录不了)
   port: <port>                       -- 端口号,默认不配置端口号,是27017  
-- 安全验证有关配置      
security:
  authorization: enabled              --是否打开用户名密码验证
  
------------------以下是复制集与分片集群有关----------------------  
replication:
 oplogSizeMB: <NUM>
 replSetName: "<REPSETNAME>"
 secondaryIndexPrefetch: "all"
sharding:
   clusterRole: <string>
   archiveMovedChunks: <boolean>    
---for mongos only
replication:
   localPingThresholdMs: <int>
sharding:
   configDB: <string>
---
=====================================================================================================
YAML例子
cat >  /mongodb/conf/mongo.conf <<EOF
systemLog:
   destination: file
   path: "/mongodb/log/mongodb.log"
   logAppend: true
storage:
   journal:
      enabled: true
   dbPath: "/mongodb/data/"
processManagement:
   fork: true
net:
   port: 27017
   bindIp: 10.0.1.51,127.0.0.1
EOF  

1.2 mongodb的关闭和启动方式

[mongod@mongo ~]$ mongod -f /mongodb/conf/mongo.conf  --shutdown  关闭命令
[mongod@mongo ~]$ mongod -f /mongodb/conf/mongo.conf              启动命令

1.3 mongodb 使用systemd管理(systemd要在root用户下)

[root@db01 ~]# cat > /etc/systemd/system/mongod.service <<EOF
[Unit]
Description=mongodb 
After=network.target remote-fs.target nss-lookup.target
[Service]
User=mongod
Type=forking
ExecStart=/mongodb/bin/mongod --config /mongodb/conf/mongo.conf
ExecReload=/bin/kill -s HUP $MAINPID
ExecStop=/mongodb/bin/mongod --config /mongodb/conf/mongo.conf --shutdown
PrivateTmp=true  
[Install]
WantedBy=multi-user.target
EOF
[root@mongo ~]# systemctl start mongod.service 
[root@mongo ~]# systemctl status mongod.service
[root@mongo ~]# systemctl stop mongod.service
注意:用此种方式在mongod用户需会提示输入root用户密码

第4章 mongodb常用基本操作

1.1 登录mongodb

切换到mongod用户下
[mongod@mongo ~]$ mongo

1.2 mongodb默认存在的库

> show databases
admin   0.000GB
config  0.000GB
local   0.000GB
test:登录时默认存在的库(隐藏的库)
管理MongoDB有关的系统库
admin库:系统预留库,MongoDB系统管理库
local库:本地预留库,存储关键日志
config库:MongoDB配置信息库
> db     #显示当前所在的库相当于pwd
test

第5章 命令种类

1.1 db对象相关命令

db.[TAB][TAB]
db.help()
db.oldboy.[TAB][TAB]
db.oldboy.help()

1.2 rs复制集有关(replication set)

rs.[TAB][TAB]
rs.help()

1.3 sh分片集群(sharding cluster)

sh.[TAB][TAB]
sh.help()

第6章 mongodb对象操作

1.1 库的操作

> use test
>db.dropDatabase()   
{ "dropped" : "test", "ok" : 1 }

1.2 集合的操作

当插入一个文档的时候,一个集合就会自动创建
use oldboy
db.stu.insert({id:101,name:"zhangsan",age:20,gender:"m"})
show tables;
db.stu.insert({id:102,name:"lisi"})
db.stu.insert({a:"b",c:"d"})
db.stu.insert({a:1,c:2})

1.3 文档操作

数据录入:
for(i=0;i<10000;i++){db.log.insert({"uid":i,"name":"mongodb","age":6,"date":new
Date()})}

查询数据行数:
> db.log.count()
全表查询:
> db.log.find()
每页显示50条记录:
> DBQuery.shellBatchSize=50; 
按照条件查询
> db.log.find({uid:999})
以标准的json格式显示数据
> db.log.find({uid:999}).pretty()
{
    "_id" : ObjectId("5cc516e60d13144c89dead33"),
    "uid" : 999,
    "name" : "mongodb",
    "age" : 6,
    "date" : ISODate("2019-04-28T02:58:46.109Z")
}
删除集合中所有记录
app> db.log.remove({})

1.4 查看集合存储信息

app> db.log.totalSize() //集合中索引+数据压缩存储之后的大小 

第7章 用户及权限管理

1.1 注意事项

验证库: 建立用户时use到的库,在使用用户时,要加上验证库才能登陆

对于管理员用户,必须在admin下创建.
1. 建用户时,use到的库,就是此用户的验证库
2. 登录时,必须明确指定验证库才能登录
3. 通常,管理员用的验证库是admin,普通用户的验证库一般是所管理的库设置为验证库
4. 如果直接登录到数据库,不进行use,默认的验证库是test,不是我们生产建议的.
5. 从3.6 版本开始,不添加bindIp参数,默认不让远程登录,只能本地管理员登录。

1.2 用户创建语法

use admin 
db.createUser
{
    user: "<name>",
    pwd: "<cleartext password>",
    roles: [
       { role: "<role>",
     db: "<database>" } | "<role>",
    ...
    ]
}

基本语法说明:
user:用户名
pwd:密码
roles:
    role:角色名     #就是权限的集合取一个别名
    db:作用对象 
role(角色只有三种):root(超级管理员), readWrite(可读可写),read(只读)   
验证数据库:
mongo -u oldboy -p 123 10.0.0.53/oldboy

1.3 用户管理例子

创建超级管理员:管理所有数据库(必须use admin再去创建),mongodb只能针对库进行设置权限,不能针对表
$ mongo
use admin
db.createUser(
{
    user: "root",
    pwd: "root123",
    roles: [ { role: "root", db: "admin" } ]
}
)
注意:创建用户前不要开认证权限,如果开了,本地也登录不了,因为用户都没有

1.4 验证用户

> db.auth(‘root‘,‘root123‘)
1
返回1表示没有问题

1.5 开启认证(默认是无密码可以登录的)

配置文件中,加入以下配置
security:
  authorization: enabled

1.6 重启mongodb

在root用户下
[root@mongo ~]# systemctl restart mongod.service 
在mongod用户下
[mongod@mongo ~]$ mongod -f /mongodb/conf/mongo.conf  --shutdown  关闭命令
[mongod@mongo ~]$ mongod -f /mongodb/conf/mongo.conf              启动命令

1.7 登录验证

mongo -uroot -proot123  admin
mongo -uroot -proot123  10.0.0.53/admin
或者
mongo
use admin
db.auth(‘root‘,‘root123‘)

1.8 查看用户

use admin
db.system.users.find().pretty()

1.9 创建应用用户

> use yu
db.createUser(
    {
        user: "app01",
        pwd: "app01",
        roles: [ { role: "readWrite" , db: "olddog" } ]
    }
)
登录
mongo -uapp01 -papp01 yu

1.10 删除用户

删除用户
db.createUser({user: "app02",pwd: "app02",roles: [ { role: "readWrite" , db: "oldboy1" } ]})
mongo -uroot -proot123 10.0.0.53/admin
use oldboy1
db.dropUser("app02")

第8章 用户管理注意事项

1.1 注意事项

1. 建用户要有验证库,管理员admin,普通用户是要管理的库
2. 登录时,注意验证库
mongo -uapp01 -papp01 10.0.0.51:27017/oldboy
3. 重点参数
net:
   port: 27017
   bindIp: 10.0.0.51,127.0.0.1
security:
   authorization: enabled

第9章 MongoDB复制集RS(ReplicationSet)

技术图片
企业更加青睐的架构
技术图片

1.1 基本原理

基本构成是1主2从的结构,自带互相监控投票机制(Raft(MongoDB)  Paxos(mysql MGR 用的是变种))
如果发生主库宕机,复制集内部会进行投票选举,选择一个新的主库替代原有主库对外提供服务。同时复制集会自动通知
客户端程序,主库已经发生切换了。应用就会连接到新的主库。

1.2 Replication Set配置过程详解

规划

三个以上的mongodb节点(或多实例)

环境准备

多个端口
28017、28018、28019、28020
多套目录
su - mongod ===直接在此用户下,不用修改权限了
mkdir -p /mongodb/28017/conf /mongodb/28017/data /mongodb/28017/log
mkdir -p /mongodb/28018/conf /mongodb/28018/data /mongodb/28018/log
mkdir -p /mongodb/28019/conf /mongodb/28019/data /mongodb/28019/log
mkdir -p /mongodb/28020/conf /mongodb/28020/data /mongodb/28020/log
多套配置文件
/mongodb/28017/conf/mongod.conf
/mongodb/28018/conf/mongod.conf
/mongodb/28019/conf/mongod.conf
/mongodb/28020/conf/mongod.conf
配置文件内容
cat > /mongodb/28017/conf/mongod.conf <<EOF
systemLog:
  destination: file
  path: /mongodb/28017/log/mongodb.log
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/28017/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
processManagement:
  fork: true
net:
  bindIp: 10.0.1.21,127.0.0.1
  port: 28017
replication:
  oplogSizeMB: 2048
  replSetName: my_repl
EOF
\cp  /mongodb/28017/conf/mongod.conf  /mongodb/28018/conf/
\cp  /mongodb/28017/conf/mongod.conf  /mongodb/28019/conf/
\cp  /mongodb/28017/conf/mongod.conf  /mongodb/28020/conf/

sed ‘s#28017#28018#g‘ /mongodb/28018/conf/mongod.conf -i
sed ‘s#28017#28019#g‘ /mongodb/28019/conf/mongod.conf -i
sed ‘s#28017#28020#g‘ /mongodb/28020/conf/mongod.conf -i
启动多个实例备用
mongod -f /mongodb/28017/conf/mongod.conf
mongod -f /mongodb/28018/conf/mongod.conf
mongod -f /mongodb/28019/conf/mongod.conf
mongod -f /mongodb/28020/conf/mongod.conf
netstat -lnp|grep 280

1.3 配置普通复制集

1主2从,从库普通从库
mongo --port 28017 admin
config = {_id: ‘my_repl‘, members: [
                          {_id: 0, host: ‘10.0.1.21:28017‘},
                          {_id: 1, host: ‘10.0.1.21:28018‘},
                          {_id: 2, host: ‘10.0.1.21:28019‘}]
          }   
 初始化复制集
rs.initiate(config)   
查询复制集状态
rs.status();
说明:此时这样去从库登录时看不到数据的
先执行rs.slaveOk()就可以查看,但是这只是临时的
可以设置从库为只读
echo "rs.slaveOk();" > ~/.mongorc.js

1主1从1个arbiter

mongo -port 28017 admin
config = {_id: ‘my_repl‘, members: [
                          {_id: 0, host: ‘10.0.1.51:28017‘},
                          {_id: 1, host: ‘10.0.1.51:28018‘},
                          {_id: 2, host: ‘10.0.1.51:28019‘,"arbiterOnly":true}]
          }                
rs.initiate(config) 
说明:最好是在搭建的时候就指定哪一个节点是arbiter节点

第10章 复制集管理操作

1.1 查看复制集状态

rs.status();    查看整体复制集状态
rs.isMaster();  查看当前是否是主节点
rs.conf();     查看复制集配置信息

1.2 添加删除节点

rs.remove("ip:port")  删除一个节点 #删除一个节点会把这个节点给停掉,记得重新把节点开启
rs.add("ip:port")     新增从节点
rs.addArb("ip:port")  新增仲裁节点
例子:
添加 arbiter节点
1、连接到主节点
[mongod@db03 ~]$ mongo --port 28017 admin
2、添加仲裁节点
my_repl:PRIMARY> rs.addArb("10.0.1.51:28020")
3、查看节点状态
my_repl:PRIMARY> rs.isMaster()
{
    "hosts" : [
        "10.0.1.51:28017",
        "10.0.1.51:28018",
        "10.0.1.51:28019"
    ],
    "arbiters" : [
        "10.0.0.51:28020"
    ],

rs.remove("ip:port");  删除一个节点
例子:
my_repl:PRIMARY> rs.remove("10.0.1.51:28017");
{ "ok" : 1 }
my_repl:PRIMARY> rs.isMaster()
rs.add("ip:port");  新增从节点
例子:
my_repl:PRIMARY> rs.add("10.0.1.51:28017")
{ "ok" : 1 }
my_repl:PRIMARY> rs.isMaster()

第11章 特殊从节点

1.1 介绍

arbiter节点:主要负责选主过程中的投票,但是不存储任何数据,也不提供任何服务
hidden节点:隐藏节点,不参与选主,也不对外提供服务。
delay节点:延时节点,数据落后于主库一段时间,因为数据是延时的,也不应该提供服务或参与选主,所以通常会配合hidden(隐藏)
一般情况下会将delay+hidden一起配置使用

1.2 配置延时节点(一般延时节点也配置成hidden)

cfg=rs.conf() 
cfg.members[3].priority=0
cfg.members[3].hidden=true
cfg.members[3].slaveDelay=120
rs.reconfig(cfg)    
说明:中括号里面的数字,是按照从零开始往下数的第几个。不是id 代表的值
取消以上配置
cfg=rs.conf() 
cfg.members[2].priority=1
cfg.members[2].hidden=false
cfg.members[2].slaveDelay=0
rs.reconfig(cfg)    
配置成功后,通过以下命令查询配置后的属性
rs.conf(); 

1.3 副本集其他操作命令

查看副本集的配置信息
admin> rs.conf()
查看副本集各成员的状态
admin> rs.status()
++++++++++++++++++++++++++++++++++++++++++++++++
--副本集角色切换(不要人为随便操作)
admin> rs.stepDown()
注:
admin> rs.freeze(300) //锁定从,使其不会转变成主库
freeze()和stepDown单位都是秒。
+++++++++++++++++++++++++++++++++++++++++++++
设置副本节点可读:在副本节点执行
admin> rs.slaveOk()
eg:
admin> use app
switched to db app
app> db.createCollection(‘a‘)
{ "ok" : 0, "errmsg" : "not master", "code" : 10107 }

查看副本节点(监控主从延时)
admin> rs.printSlaveReplicationInfo()
source: 192.168.1.22:27017
    syncedTo: Thu May 26 2016 10:28:56 GMT+0800 (CST)
    0 secs (0 hrs) behind the primary

第12章 MongoDB Sharding Cluster 分片集群

技术图片

1.1 规划

10个实例:38017-38026
(1)configserver:38018-38020
3台构成的复制集(1主两从,不支持arbiter)38018-38020(复制集名字configsvr)
(2)shard节点:
sh1:38021-23    (1主两从,其中一个节点为arbiter,复制集名字sh1)
sh2:38024-26    (1主两从,其中一个节点为arbiter,复制集名字sh2)
(3) mongos:
38017

1.2 Shard节点配置过程

目录创建

[root@mongo ~]# su - mongod 
[mongod@mongo ~]$ mkdir -p /mongodb/38021/conf  /mongodb/38021/log  /mongodb/38021/data
[mongod@mongo ~]$ mkdir -p /mongodb/38022/conf  /mongodb/38022/log  /mongodb/38022/data
[mongod@mongo ~]$ mkdir -p /mongodb/38023/conf  /mongodb/38023/log  /mongodb/38023/data
[mongod@mongo ~]$ mkdir -p /mongodb/38024/conf  /mongodb/38024/log  /mongodb/38024/data
[mongod@mongo ~]$ mkdir -p /mongodb/38025/conf  /mongodb/38025/log  /mongodb/38025/data
[mongod@mongo ~]$ mkdir -p /mongodb/38026/conf  /mongodb/38026/log  /mongodb/38026/data

1.3 修改配置文件

第一组节点:21-23(1主 1从 1Arb)

cat >  /mongodb/38021/conf/mongodb.conf  <<EOF
systemLog:
  destination: file
  path: /mongodb/38021/log/mongodb.log   
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/38021/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
net:
  bindIp: 10.0.1.51,127.0.0.1
  port: 38021
replication:
  oplogSizeMB: 2048
  replSetName: sh1
sharding:
  clusterRole: shardsvr   #此处名字官方定义,只能这样写不能自己来定义
processManagement: 
  fork: true
EOF
\cp  /mongodb/38021/conf/mongodb.conf  /mongodb/38022/conf/
\cp  /mongodb/38021/conf/mongodb.conf  /mongodb/38023/conf/

sed ‘s#38021#38022#g‘ /mongodb/38022/conf/mongodb.conf -i
sed ‘s#38021#38023#g‘ /mongodb/38023/conf/mongodb.conf -i

第二组节点:24-26(1主1从1Arb)

cat > /mongodb/38024/conf/mongodb.conf <<EOF
systemLog:
  destination: file
  path: /mongodb/38024/log/mongodb.log   
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/38024/data
  directoryPerDB: true
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
net:
  bindIp: 10.0.1.51,127.0.0.1
  port: 38024
replication:
  oplogSizeMB: 2048
  replSetName: sh2
sharding:
  clusterRole: shardsvr     #此处名字官方定义,只能这样写不能自己来定义     
processManagement: 
  fork: true
EOF

\cp  /mongodb/38024/conf/mongodb.conf  /mongodb/38025/conf/
\cp  /mongodb/38024/conf/mongodb.conf  /mongodb/38026/conf/
sed ‘s#38024#38025#g‘ /mongodb/38025/conf/mongodb.conf -i
sed ‘s#38024#38026#g‘ /mongodb/38026/conf/mongodb.conf -i

1.4 启动所有节点,并搭建复制集

mongod -f  /mongodb/38021/conf/mongodb.conf 
mongod -f  /mongodb/38022/conf/mongodb.conf 
mongod -f  /mongodb/38023/conf/mongodb.conf 
mongod -f  /mongodb/38024/conf/mongodb.conf 
mongod -f  /mongodb/38025/conf/mongodb.conf 
mongod -f  /mongodb/38026/conf/mongodb.conf

mongo --port 38021 admin
config = {_id: ‘sh1‘, members: [
                          {_id: 0, host: ‘10.0.1.51:38021‘},
                          {_id: 1, host: ‘10.0.1.51:38022‘},
                          {_id: 2, host: ‘10.0.1.51:38023‘,"arbiterOnly":true}]
           }

rs.initiate(config)
  
 mongo --port 38024 admin
config = {_id: ‘sh2‘, members: [
                          {_id: 0, host: ‘10.0.1.51:38024‘},
                          {_id: 1, host: ‘10.0.1.51:38025‘},
                          {_id: 2, host: ‘10.0.1.51:38026‘,"arbiterOnly":true}]
           }
  
rs.initiate(config)

1.5 config节点配置

目录创建

mkdir -p /mongodb/38018/conf  /mongodb/38018/log  /mongodb/38018/data
mkdir -p /mongodb/38019/conf  /mongodb/38019/log  /mongodb/38019/data
mkdir -p /mongodb/38020/conf  /mongodb/38020/log  /mongodb/38020/data

修改配置文件

cat > /mongodb/38018/conf/mongodb.conf <<EOF
systemLog:
  destination: file
  path: /mongodb/38018/log/mongodb.conf
  logAppend: true
storage:
  journal:
    enabled: true
  dbPath: /mongodb/38018/data
  directoryPerDB: true
  #engine: wiredTiger
  wiredTiger:
    engineConfig:
      cacheSizeGB: 1
      directoryForIndexes: true
    collectionConfig:
      blockCompressor: zlib
    indexConfig:
      prefixCompression: true
net:
  bindIp: 10.0.1.23,127.0.0.1
  port: 38018
replication:
  oplogSizeMB: 2048
  replSetName: configReplSet
sharding:
  clusterRole: configsvr      #此处名字官方定义,只能这样写不能自己来定义    
processManagement: 
  fork: true
EOF

cp /mongodb/38018/conf/mongodb.conf /mongodb/38019/conf/
cp /mongodb/38018/conf/mongodb.conf /mongodb/38020/conf/
sed ‘s#38018#38019#g‘ /mongodb/38019/conf/mongodb.conf -i
sed ‘s#38018#38020#g‘ /mongodb/38020/conf/mongodb.conf -i

启动节点,并配置复制集

mongo --port 38018 admin
config = {_id: ‘configReplSet‘, members: [
                          {_id: 0, host: ‘10.0.1.51:38018‘},
                          {_id: 1, host: ‘10.0.1.51:38019‘},
                          {_id: 2, host: ‘10.0.1.51:38020‘}]
           }
rs.initiate(config)  
  
注:configserver 可以是一个节点,官方建议复制集。configserver不能有arbiter。
新版本中,要求必须是复制集。
注:mongodb 3.4之后,虽然要求config server为replica set,但是不支持arbiter

1.6 mongos节点配置

创建目录

mkdir -p /mongodb/38017/conf  /mongodb/38017/log 

配置文件

cat >/mongodb/38017/conf/mongos.conf<<EOF
systemLog:
  destination: file
  path: /mongodb/38017/log/mongos.log
  logAppend: true
net:
  bindIp: 10.0.1.51,127.0.0.1
  port: 38017
sharding:
  configDB: configReplSet/10.0.1.51:38018,10.0.1.51:38019,10.0.1.51:38020
processManagement: 
  fork: true
EOF      

启动mongos

mongos -f /mongodb/38017/conf/mongos.conf

1.7 分片集群操作

连接到其中一个mongos(10.0.1.51),做以下配置
(1)连接到mongs的admin数据库
# su - mongod
$ mongo 10.0.1.51:38017/admin
(2)添加分片
db.runCommand( { addshard : "sh1/10.0.1.51:38021,10.0.1.51:38022,10.0.1.51:38023",name:"shard1"} )
db.runCommand( { addshard : "sh2/10.0.1.51:38024,10.0.1.51:38025,10.0.1.51:38026",name:"shard2"} )
(3)列出分片
mongos> db.runCommand( { listshards : 1 } )
(4)整体状态查看
mongos> sh.status();

第13章 使用分片集群

1.1 RANGE分片配置及测试

激活数据库分片功能

mongo --port 38017 admin
admin>  ( { enablesharding : "数据库名称" } )
eg:
admin> db.runCommand( { enablesharding : "test" } )

指定分片键对集合分片(分片键是必须要建索引的)

### 创建索引
use test
> db.vast.ensureIndex( { id: 1 } )
### 开启分片 =====管理性动作,必须要回到admin库
use admin
> db.runCommand( { shardcollection : "test.vast",key : {id: 1} } )  #1.表示从小到大,-1表示从大到小
说明:实际中,看哪个作为条件查询多的列,range一般是数字列!

集合分片验证

admin> use test
test> for(i=1;i<1000000;i++){ db.vast.insert({"id":i,"name":"shenzheng","age":70,"date":new Date()}); }
test> db.vast.stats()

分片结果测试

shard1:
mongo --port 38021
db.vast.count();

shard2:
mongo --port 38024
db.vast.count();
说明:如果马上去看后端的节点查看数据,会发现只写在一个节点上,是因为我们没有设置blancer,数据录完以后mogos会触发blancer操作进行chunk转移,所以要等一段时间

1.2 Hash分片例子

对oldboy库下的vast大表进行hash
创建哈希索引
(1)对于oldboy开启分片功能
mongo --port 38017 admin
use admin
admin> db.runCommand( { enablesharding : "oldboy" } )
(2)对于oldboy库下的vast表建立hash索引
use oldboy
oldboy> db.vast.ensureIndex( { id: "hashed" } )
(3)开启分片 
use admin
admin > sh.shardCollection( "oldboy.vast", { id: "hashed" } )
(4)录入10w行数据测试
use oldboy
for(i=1;i<100000;i++){ db.vast.insert({"id":i,"name":"shenzheng","age":70,"date":new Date()}); }
(5)hash分片结果测试
mongo --port 38021
use oldboy
db.vast.count();

mongo --port 38024
use oldboy
db.vast.count();

第14章 分片集群的查询及管理

1.1 判断是否Shard集群

admin> db.runCommand({ isdbgrid : 1})

1.2 列出所有分片信息

admin> db.runCommand({ listshards : 1})

1.3 列出开启分片的数据库

admin> db.runCommand({ listshards : 1})

1.4 查看分片的片键

config> db.collections.find().pretty()
{
    "_id" : "test.vast",
    "lastmodEpoch" : ObjectId("58a599f19c898bbfb818b63c"),
    "lastmod" : ISODate("1970-02-19T17:02:47.296Z"),
    "dropped" : false,
    "key" : {
        "id" : 1
    },
    "unique" : false
}

1.5 查看分片的详细信息

admin> sh.status()

1.6 删除分片节点(谨慎)

(1)确认blance是否在工作
sh.getBalancerState()
(2)删除shard2节点(谨慎)
mongos> db.runCommand( { removeShard: "shard2" } )
注意:删除操作一定会立即触发blancer。

第15章 balancer操作

1.1 介绍

mongos的一个重要功能,自动巡查所有shard节点上的chunk的情况,自动做chunk迁移。
什么时候工作?
1、自动运行,会检测系统不繁忙的时候做迁移
2、在做节点删除的时候,立即开始迁移工作
3、balancer只能在预设定的时间窗口内运行
说明:默认情况下balancer是24小时工作的,为了考虑性能的问题,所以必须要人为设置时间
有需要时可以关闭和开启blancer(备份的时候一定关闭balancer)
mongos> sh.stopBalancer()
mongos> sh.startBalancer()

1.2 自定义 自动平衡进行的时间段

https://docs.mongodb.com/manual/tutorial/manage-sharded-cluster-balancer/#schedule-the-balancing-window
// connect to mongos

use config  #mongos的配置在这个库,所以要use进来
sh.setBalancerState( true )
db.settings.update({ _id : "balancer" }, { $set : { activeWindow : { start : "3:00", stop : "5:00" } } }, true )  #生产中必须要设置时间

sh.getBalancerWindow()/sh.status() 2个命令都可以查看
           
关于集合的balancer(了解下)
关闭某个集合的balance
sh.disableBalancing("students.grades")
打开某个集合的balancer
sh.enableBalancing("students.grades")
确定某个集合的balance是开启或者关闭
db.getSiblingDB("config").collections.findOne({_id : "students.grades"}).noBalance;

第16章 备份恢复

1.1 备份恢复工具介绍

(1)**   mongoexport/mongoimport
(2)***** mongodump/mongorestore

1.2 备份工具区别在哪里

mongoexport/mongoimport  导入/导出的是JSON格式或者CSV格式
mongodump/mongorestore   导入/导出的是BSON格式。		
JSON可读性强但体积较大,BSON则是二进制文件,体积小但对人类几乎没有可读性。
在一些mongodb版本之间,BSON格式可能会随版本不同而有所不同,所以不同版本之间用mongodump/mongorestore可能不会成功,具体要看版本之间的兼容性。当无法使用BSON进行跨版本的数据迁移的时候,使用JSON格式即mongoexport/mongoimport是一个可选项。
跨版本的mongodump/mongorestore个人并不推荐,实在要做请先检查文档看两个版本是否兼容(大部分时候是的)
JSON虽然具有较好的跨版本通用性,但其只保留了数据部分,不保留索引,账户等其他基础信息。使用时应该注意。

1.3 应用场景总结

mongoexport/mongoimport:json csv 
1、异构平台迁移  mysql  <---> mongodb
2、同平台,跨大版本:mongodb 2  ----> mongodb 3
mongodump/mongorestore
日常备份恢复时使用.

第17章 导出工具mongoexport

1.1 介绍

Mongodb中的mongoexport工具可以把一个collection导出成JSON格式或CSV格式的文件。
可以通过参数指定导出的数据项,也可以根据指定的条件导出数据。
(1)版本差异较大
(2)异构平台数据迁移

1.2 mongoexport参数说明

$ mongoexport --help  
参数说明:
-h:指明数据库宿主机的IP
-u:指明数据库的用户名
-p:指明数据库的密码
-d:指明数据库的名字   #由于导出的是bson格式或者json格式,所以是不能把整个库导出,只能针对表导出
-c:指明collection的名字
-f:指明要导出那些列
-o:指明到要导出的文件名
-q:指明导出数据的过滤条件
--authenticationDatabase admin
1.单表备份至json格式
mongoexport -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldboy -c log -o /mongodb/log.json
注:备份文件的名字可以自定义,默认导出了JSON格式的数据。
2. 单表备份至csv格式(用此种格式导出,要用-f ...后面跟上列名)
如果我们需要导出CSV格式的数据,则需要使用--type=csv参数:
 mongoexport -uroot -proot123 --port 27017 --authenticationDatabase admin -d test -c log --type=csv -f uid,name,age,date  -o /mongodb/log.csv

第18章 导入工具mongoimport

$ mongoimport --help
参数说明:
-h:指明数据库宿主机的IP
-u:指明数据库的用户名
-p:指明数据库的密码
-d:指明数据库的名字
-c:指明collection的名字
-f:指明要导入那些列
-j, --numInsertionWorkers=<number>  number of insert operations to run concurrently   并发导入 例 -j 4                                               (defaults to 1)
具体看CPU个数来给值
数据恢复:
1.恢复json格式表数据到log1
mongoimport -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldboy -c log1 /mongodb/log.json
2.恢复csv格式的文件到log2
上面演示的是导入JSON格式的文件中的内容,如果要导入CSV格式文件中的内容,则需要通过--type参数指定导入格式,具体如下所示:
错误的恢复

注意:
(1)csv格式的文件头行,有列名字
mongoimport   -uroot -proot123 --port 27017 --authenticationDatabase admin   -d oldboy -c log2 --type=csv --headerline --file  /mongodb/log.csv

(2)csv格式的文件头行,没有列名字
mongoimport   -uroot -proot123 --port 27017 --authenticationDatabase admin   -d oldboy -c log3 --type=csv -f id,name,age,date --file  /mongodb/log.csv
--headerline:指明第一行是列名,不需要导入。
如果要导入的csv没有头行,硬要用--headerline 是可以手工加入列名的

第19章 异构平台迁移案例

1.1 案例1:

mysql   -----> mongodb  
world数据库下city表进行导出,导入到mongodb

第一个里程:mysql开启安全路径

vim /etc/my.cnf   --->添加以下配置
secure-file-priv=/tmp
--重启数据库生效
/etc/init.d/mysqld restart

第二个里程:导出mysql的city表数据

以csv的格式导出
db01 [(none)]>select * from world.city into outfile ‘/tmp/city.csv‘ fields terminated by ‘,‘;

第三个里程:处理备份文件

db01 [(none)]>desc world.city;
+-------------+----------+------+-----+---------+----------------+
| Field       | Type     | Null | Key | Default | Extra          |
+-------------+----------+------+-----+---------+----------------+
| ID          | int(11)  | NO   | PRI | NULL    | auto_increment |
| Name        | char(35) | NO   |     |         |                |
| CountryCode | char(3)  | NO   | MUL |         |                |
| District    | char(20) | NO   |     |         |                |
| Population  | int(11)  | NO   |     | 0       |                |
+-------------+----------+------+-----+---------+----------------+
vim /tmp/city.csv   ----> 添加第一行列名信息
ID,Name,CountryCode,District,Population

第四个里程:在mongodb中导入备份

mongoimport -uroot -proot123 --port 27017 --authenticationDatabase admin -d world  -c city --type=csv  --headerline --file  /tmp/city.csv

第五个里程:检查数据是否导入

登录mongodb
use world
db.city.find();

1.2 案例2:

world共100张表,全部迁移到mongodb

思路:

select table_name ,group_concat(column_name) from columns where table_schema=‘world‘ group by table_name;

select * from world.city into outfile ‘/tmp/world_city.csv‘ fields terminated by ‘,‘;

select concat("select * from ",table_schema,".",table_name ," into outfile ‘/tmp/",table_schema,"_",table_name,".csv‘ fields terminated by ‘,‘;")
from information_schema.tables where table_schema =‘world‘;

导入:
提示,使用infomation_schema.columns + information_schema.tables
mysql导出csv:
select * from test_info   
into outfile ‘/tmp/test.csv‘   
fields terminated by ‘,‘    ------字段间以,号分隔
optionally enclosed by ‘"‘   ------字段用"号括起
escaped by ‘"‘           ------字段中使用的转义符为"
lines terminated by ‘\r\n‘;  ------行以\r\n结束

mysql导入csv:
load data infile ‘/tmp/test.csv‘   
into table test_info    
fields terminated by ‘,‘  
optionally enclosed by ‘"‘ 
escaped by ‘"‘   
lines terminated by ‘\r\n‘; 

第20章 mongodump和mongorestore

1.1 介绍

mongodump能够在Mongodb运行时进行备份,它的工作原理是对运行的Mongodb做查询,然后将所有查到的文档写入磁盘。
但是存在的问题时使用mongodump产生的备份不一定是数据库的实时快照,如果我们在备份时对数据库进行了写入操作,
则备份出来的文件可能不完全和Mongodb实时数据相等。另外在备份时可能会对其它客户端性能产生不利的影响。

1.2 mongodump参数说明

$ mongodump --help
参数说明:
-h:指明数据库宿主机的IP
-u:指明数据库的用户名
-p:指明数据库的密码
-d:指明数据库的名字
-c:指明collection的名字
-o:指明到要导出的文件名
-q:指明导出数据的过滤条件
-j, --numParallelCollections=  number of collections to dump in parallel (4 by default)
--oplog  备份的同时备份oplog

1.3 mongodump和mongorestore基本使用

全库备份

mkdir /mongodb/backup
mongodump  -uroot -proot123 --port 27017 --authenticationDatabase admin -o /mongodb/backup

备份world库

$ mongodump   -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldboy -c log -o /mongodb/backup/

备份oldboy库下的log集合

$ mongodump   -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldboy -c log -o /mongodb/backup/

压缩备份

$ mongodump   -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldguo -o /mongodb/backup/ --gzip
 mongodump   -uroot -proot123 --port 27017 --authenticationDatabase admin -o /mongodb/backup/ --gzip
$ mongodump   -uroot -proot123 --port 27017 --authenticationDatabase admin -d app -c vast -o /mongodb/backup/ --gzip

恢复world库

$ mongorestore   -uroot -proot123 --port 27017 --authenticationDatabase admin -d world1  /mongodb/backup/world

恢复oldguo库下的t1集合

[mongod@db03 oldboy]$ mongorestore   -uroot -proot123 --port 27017 --authenticationDatabase admin -d world -c t1  --gzip  /mongodb/backup.bak/oldboy/log1.bson.gz 

drop表示恢复的时候把之前的集合drop掉(危险)

$ mongorestore  -uroot -proot123 --port 27017 --authenticationDatabase admin -d oldboy --drop  /mongodb/backup/oldboy

第mongodump和mongorestore高级企业应用

注意:这是replica set或者master/slave模式专用
--oplog
 use oplog for taking a point-in-time snapshot

1.4 oplog介绍

在replica set中oplog是一个定容集合(capped collection),它的默认大小是磁盘空间的5%(可以通过--oplogSizeMB参数修改).
=====说明:实际上就是用一张表记录了mongodb基于时间点的日志
位于local库的db.oplog.rs
其中记录的是整个mongod实例一段时间内数据库的所有变更(插入/更新/删除)操作。
当空间用完时新记录自动覆盖最老的记录。
其覆盖范围被称作oplog时间窗口。需要注意的是,因为oplog是一个定容集合,
所以时间窗口能覆盖的范围会因为你单位时间内的更新次数不同而变化。
想要查看当前的oplog时间窗口预计值,可以使用以下命令:

 mongod -f /mongodb/28017/conf/mongod.conf 
 mongod -f /mongodb/28018/conf/mongod.conf 
 mongod -f /mongodb/28019/conf/mongod.conf 
 mongod -f /mongodb/28020/conf/mongod.conf 
 
 
 use local 
 db.oplog.rs.find().pretty()
"ts" : Timestamp(1553597844, 1),
"op" : "n"
"o"  :

"i": insert
"u": update
"d": delete
"c": db cmd  #表示的是drop操作

test:PRIMARY> rs.printReplicationInfo()
configured oplog size:   1561.5615234375MB <--集合大小
log length start to end: 423849secs (117.74hrs) <--预计窗口覆盖时间
oplog first event time:  Wed Sep 09 2015 17:39:50 GMT+0800 (CST)
oplog last event time:   Mon Sep 14 2015 15:23:59 GMT+0800 (CST)
now:                     Mon Sep 14 2015 16:37:30 GMT+0800 (CST)
实际生产中:有两种方案来定制oplog的大小
第一种方案:定制一个足够大的空间(但是管理起来很麻烦)
第二种方案:定期备份这一张表

1.5 oplog企业级应用

(1)实现热备,在备份时使用--oplog选项
注:为了演示效果我们在备份过程,模拟数据插入
(2)准备测试数据
[mongod@db01 conf]$ mongo --port 28018
use oldboy
for(var i = 1 ;i < 100; i++) {
    db.foo.insert({a:i});
}

my_repl:PRIMARY> db.oplog.rs.find({"op":"i"}).pretty()

oplog 配合mongodump实现热备
mongodump --port 28018 --oplog -o /mongodb/backup
作用介绍:--oplog 会记录备份过程中的数据变化。会以oplog.bson保存下来
恢复
mongorestore  --port 28018 --oplogReplay /mongodb/backup

1.6 oplog模拟恢复数据

背景

背景:每天0点全备,oplog恢复窗口为48小时
某天,上午10点world.city 业务表被误删除。
恢复思路:
    0、停应用
    2、找测试库
    3、恢复昨天晚上全备
    4、截取全备之后到world.city误删除时间点的oplog,并恢复到测试库
    5、将误删除表导出,恢复到生产库

1.7 故障模拟

恢复步骤:
模拟故障环境:
1、全备数据库
模拟原始数据
mongo --port 28017
use wo
for(var i = 1 ;i < 20; i++) {
    db.ci.insert({a: i});
}

全备:
rm -rf /mongodb/backup/*
mongodump --port 28018 --oplog -o /mongodb/backup

--oplog功能:在备份同时,将备份过程中产生的日志进行备份
文件必须存放在/mongodb/backup下,自动命令为oplog.bson

再次模拟数据
db.ci1.insert({id:1})
db.ci2.insert({id:2})

2、上午10点:删除wo库下的ci表
10:00时刻,误删除
db.ci.drop()
show tables;

3、备份现有的oplog.rs表
mongodump --port 28018 -d local -c oplog.rs  -o /mongodb/backup

4、截取oplog并恢复到drop之前的位置
更合理的方法:登陆到原数据库
[mongod@db03 local]$ mongo --port 28018
my_repl:PRIMARY> use local
db.oplog.rs.find({op:"c"}).pretty();

{
    "ts" : Timestamp(1553659908, 1),
    "t" : NumberLong(2),
    "h" : NumberLong("-7439981700218302504"),
    "v" : 2,
    "op" : "c",
    "ns" : "wo.$cmd",
    "ui" : UUID("db70fa45-edde-4945-ade3-747224745725"),
    "wall" : ISODate("2019-03-27T04:11:48.890Z"),
    "o" : {
        "drop" : "ci"
    }
}

获取到oplog误删除时间点位置:
"ts" : Timestamp(1553659908, 1)

 5、恢复备份+应用oplog
[mongod@db03 backup]$ cd /mongodb/backup/local/
[mongod@db03 local]$ ls
oplog.rs.bson  oplog.rs.metadata.json
[mongod@db03 local]$ cp oplog.rs.bson ../oplog.bson 
rm -rf /mongodb/backup/local/
 
mongorestore --port 38021  --oplogReplay --oplogLimit "1553659908:1"  --drop   /mongodb/backup/

1.8 分片集群的备份思路

1、你要备份什么?
config server
shard 节点

单独进行备份
2、备份有什么困难和问题
(1)chunk迁移的问题
    人为控制在备份的时候,避开迁移的时间窗口
(2)shard节点之间的数据不在同一时间点。
    选业务量较少的时候       
Ops Manager 

mongodb

标签:bak   地址   iptable   cst   就是   条件   第一个   option   workload   

原文地址:https://www.cnblogs.com/yufenchi/p/12961935.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!