4-1 Mongodb磁盘回收
最后更新于:2022-04-02 07:39:45
#### **描述:**
目前线上Mongodb副本集为三节点+1仲裁节点,已经稳定运行两年,由于数据不断的更新和删除,存储空间很大一部分没有释放,数据库中查看数据库暂用存储并不大,存储没有回收(1.8T数据删除掉了1.2T),为了节省成本进行维护。
### **解决办法:**
在这里没有使用官方的磁盘整理
我们采用新节点替换老节点的方式,要注意数据库的oplog设置的大小,是否能存储所有的信息。
**1、添加新的节点重新同步**
启动新节点新节点配置文件和复制集成员配置文件保持一致,数据库版本也要一致。
新节点1T存储,我们有一个节点隐藏专门为程序统计使用,线上业务程序不可见访问不到这个节点,
**将新节点加入复制集时设置为隐藏节点**
在复制集primary节点操作:
延迟0秒,权重为0,隐藏开启,同步索引开启
```shell
mongo> rs.add({_id:1,host:'10.0.6.44:27010',"slaveDelay":0,"priority":0,"hidden":true,"buildIndexes":true});
mongo> rs.status() #查看节点成员状态
```
通过查看节点状态我发现,新加如的节点同步源我们的主节点,我们要保证线上业务,我们要修改同步源。
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/8e/8c/8e8cf5c681c37137d40f08c7c9bab053_1510x1244.png)
**2、修改新加入节点同步源**
### 在复制集primary节点操作
Run replSetSyncFrom in the admin database.需要切换到admin数据库使用此命令。
```shell
mongo> db.adminCommand( { replSetSyncFrom: "10.0.6.55:27010" })
#设置同步源为隐藏节点
```
![![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/ae/10/ae100b0c07e5093189addc0b4097d948_1592x1214.png)](images/screenshot_1572490899870.png)
### 查看是否修改成功:
![](https://docs.gechiui.com/gc-content/uploads/sites/kancloud/4c/23/4c23ea390529884898719a73923f179d_1518x1224.png)
**3、我们通过命令查看新添加节点是否同步完成**
查看节点状态
```
PRIMARY> rs.status()
"members" : [
{
"_id" : 1,
"name" : "10.0.6.44:27010",
"health" : 1,
"state" : 2,
"stateStr" : "SECONDARY", #由开始的STARTUP2变为了SECONDARY
"uptime" : 2991253,
"optime" : {
"ts" : Timestamp(1584078756, 24),
"t" : NumberLong(1687)
},
"optimeDurable" : {
"ts" : Timestamp(1584078756, 24),
"t" : NumberLong(1687)
},
"optimeDate" : ISODate("2020-03-13T05:52:36Z"),
"optimeDurableDate" : ISODate("2020-03-13T05:52:36Z"),
"lastHeartbeat" : ISODate("2020-03-13T05:52:36.903Z"),
"lastHeartbeatRecv" : ISODate("2020-03-13T05:52:37.019Z"),
"pingMs" : NumberLong(1),
"lastHeartbeatMessage" : "",
"syncingTo" : "10.10.20.31:27010",
"syncSourceHost" : "10.10.20.31:27010",
"syncSourceId" : 5,
"infoMessage" : "",
"configVersion" : 171
},
```
查看节点复制是否有延迟
```
PRIMARY> db.printSlaveReplicationInfo()
source: 10.0.6.44:27010
syncedTo: Fri Mar 13 2020 13:49:54 GMT+0800 (CST)
1 secs (0 hrs) behind the primary
PRIMARY>
```
**4、隐藏节点数据同步完成以后,修改为程序可见**
连接到PRIMARY节点
```
PRIMARY> conf = rs.conf(); #查看10.0.6.44:27010排序第几,不是_id
PRIMARY> conf.members[3].priority=10 #从第一个节点开始为0 、1、 2、 3 //10.0.6.44:27010排序3,修改权重为10
10
rs02:PRIMARY> conf.members[3].hidden=false #隐藏设为false
false
PRIMARY> rs.reconfig(conf); #重新加载配置
{
"ok" : 1,
"operationTime" : Timestamp(1584080742, 1),
"$clusterTime" : {
"clusterTime" : Timestamp(1584080742, 1),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
PRIMARY> rs.config()
```
**5、查看新节点日志是否正常**
**6、可以关闭老的节点,并在集群中去掉**
```
PRIMARY> rs.remove("10.1.1.77:27030")
{
"ok" : 1,
"operationTime" : Timestamp(1584081322, 1),
"$clusterTime" : {
"clusterTime" : Timestamp(1584081322, 1),
"signature" : {
"hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
"keyId" : NumberLong(0)
}
}
}
PRIMARY>
```
复制集其多节点采用轮训替换的方式,完成磁盘整理。
';