Mongodb集羣搭建的三種方式

文章轉自:http://blog.csdn.NET/luonanqin/article/details/8497860


Mongodb是時下流行的NoSql數據庫,它的存儲方式是文檔式存儲,並不是Key-Value形式。關於Mongodb的特點,這裏就不多介紹了,大家可以去看看官方說明:http://docs.mongodb.org/manual/


       今天主要來說說Mongodb的三種集羣方式的搭建:Replica Set / Sharding / Master-Slaver。這裏只說明最簡單的集羣搭建方式(生產環境),如果有多個節點可以此類推或者查看官方文檔。OS是Ubuntu_x64系統,客戶端用的是Java客戶端。Mongodb版本是mongodb-Linux-x86_64-2.2.2.tgz


Replica Set

       中文翻譯叫做副本集,不過我並不喜歡把英文翻譯成中文,總是感覺怪怪的。其實簡單來說就是集羣當中包含了多份數據,保證主節點掛掉了,備節點能繼續提供數據服務,提供的前提就是數據需要和主節點一致。如下圖:

       Mongodb(M)表示主節點,Mongodb(S)表示備節點,Mongodb(A)表示仲裁節點。主備節點存儲數據,仲裁節點不存儲數據。客戶端同時連接主節點與備節點,不連接仲裁節點。

       默認設置下,主節點提供所有增刪查改服務,備節點不提供任何服務。但是可以通過設置使備節點提供查詢服務,這樣就可以減少主節點的壓力,當客戶端進行數據查詢時,請求自動轉到備節點上。這個設置叫做Read Preference Modes,同時Java客戶端提供了簡單的配置方式,可以不必直接對數據庫進行操作。

       仲裁節點是一種特殊的節點,它本身並不存儲數據,主要的作用是決定哪一個備節點在主節點掛掉之後提升爲主節點,所以客戶端不需要連接此節點。這裏雖然只有一個備節點,但是仍然需要一個仲裁節點來提升備節點級別。我開始也不相信必須要有仲裁節點,但是自己也試過沒仲裁節點的話,主節點掛了備節點還是備節點,所以咱們還是需要它的。

介紹完了集羣方案,那麼現在就開始搭建了。


1.建立數據文件夾

一般情況下不會把數據目錄建立在mongodb的解壓目錄下,不過這裏方便起見,就建在mongodb解壓目錄下吧。

mkdir -p /mongodb/data/master   
mkdir -p /mongodb/data/slaver   
mkdir -p /mongodb/data/arbiter    
#三個目錄分別對應主,備,仲裁節點

2.建立配置文件

由於配置比較多,所以我們將配置寫到文件裏。

#master.conf  
dbpath=/mongodb/data/master  
logpath=/mongodb/log/master.log  
pidfilepath=/mongodb/master.pid  
directoryperdb=true  
logappend=true  
replSet=testrs  
bind_ip=10.10.148.130  
port=27017  
oplogSize=10000  
fork=true  
noprealloc=true
#slaver.conf  
dbpath=/mongodb/data/slaver  
logpath=/mongodb/log/slaver.log  
pidfilepath=/mongodb/slaver.pid  
directoryperdb=true  
logappend=true  
replSet=testrs  
bind_ip=10.10.148.131  
port=27017  
oplogSize=10000  
fork=true  
noprealloc=true
#arbiter.conf  
dbpath=/mongodb/data/arbiter  
logpath=/mongodb/log/arbiter.log  
pidfilepath=/mongodb/arbiter.pid  
directoryperdb=true  
logappend=true  
replSet=testrs  
bind_ip=10.10.148.132  
port=27017  
oplogSize=10000  
fork=true  
noprealloc=true

參數解釋:

dbpath:數據存放目錄

logpath:日誌存放路徑

pidfilepath:進程文件,方便停止mongodb

directoryperdb:爲每一個數據庫按照數據庫名建立文件夾存放

logappend:以追加的方式記錄日誌

replSet:replica set的名字

bind_ip:mongodb所綁定的ip地址

port:mongodb進程所使用的端口號,默認爲27017

oplogSize:mongodb操作日誌文件的最大大小。單位爲Mb,默認爲硬盤剩餘空間的5%

fork:以後臺方式運行進程

noprealloc:不預先分配存儲


3.啓動mongodb

進入每個mongodb節點的bin目錄下

./monood -f master.conf  
./mongod -f slaver.conf  
./mongod -f arbiter.conf

注意配置文件的路徑一定要保證正確,可以是相對路徑也可以是絕對路徑。


4.配置主,備,仲裁節點

可以通過客戶端連接mongodb,也可以直接在三個節點中選擇一個連接mongodb。

./mongo 10.10.148.130:27017   #ip和port是某個節點的地址  
>use admin  
>cfg={ _id:"testrs", members:[ {_id:0,host:'10.10.148.130:27017',priority:2}, {_id:1,host:'10.10.148.131:27017',priority:1},   
{_id:2,host:'10.10.148.132:27017',arbiterOnly:true}] };  
>rs.initiate(cfg)             #使配置生效

       cfg是可以任意的名字,當然最好不要是mongodb的關鍵字,conf,config都可以。最外層的_id表示replica set的名字,members裏包含的是所有節點的地址以及優先級。優先級最高的即成爲主節點,即這裏的10.10.148.130:27017。特別注意的是,對於仲裁節點,需要有個特別的配置——arbiterOnly:true。這個千萬不能少了,不然主備模式就不能生效。

      配置的生效時間根據不同的機器配置會有長有短,配置不錯的話基本上十幾秒內就能生效,有的配置需要一兩分鐘。如果生效了,執行rs.status()命令會看到如下信息:

{  
        "set" : "testrs",  
        "date" : ISODate("2013-01-05T02:44:43Z"),  
        "myState" : 1,  
        "members" : [  
                {  
                        "_id" : 0,  
                        "name" : "10.10.148.130:27017",  
                        "health" : 1,  
                        "state" : 1,  
                        "stateStr" : "PRIMARY",  
                        "uptime" : 200,  
                        "optime" : Timestamp(1357285565000, 1),  
                        "optimeDate" : ISODate("2013-01-04T07:46:05Z"),  
                        "self" : true  
                },  
                {  
                        "_id" : 1,  
                        "name" : "10.10.148.131:27017",  
                        "health" : 1,  
                        "state" : 2,  
                        "stateStr" : "SECONDARY",  
                        "uptime" : 200,  
                        "optime" : Timestamp(1357285565000, 1),  
                        "optimeDate" : ISODate("2013-01-04T07:46:05Z"),  
                        "lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),  
                        "pingMs" : 0  
                },  
                {  
                        "_id" : 2,  
                        "name" : "10.10.148.132:27017",  
                        "health" : 1,  
                        "state" : 7,  
                        "stateStr" : "ARBITER",  
                        "uptime" : 200,  
                        "lastHeartbeat" : ISODate("2013-01-05T02:44:42Z"),  
                        "pingMs" : 0  
                }  
        ],  
        "ok" : 1  
}

如果配置正在生效,其中會包含如下信息:

"stateStr" : "RECOVERING"

同時可以查看對應節點的日誌,發現正在等待別的節點生效或者正在分配數據文件。

       現在基本上已經完成了集羣的所有搭建工作。至於測試工作,可以留給大家自己試試。一個是往主節點插入數據,能從備節點查到之前插入的數據(查詢備節點可能會遇到某個問題,可以自己去網上查查看)。二是停掉主節點,備節點能變成主節點提供服務。三是恢復主節點,備節點也能恢復其備的角色,而不是繼續充當主的角色。二和三都可以通過rs.status()命令實時查看集羣的變化。


Sharding

和Replica Set類似,都需要一個仲裁節點,但是Sharding還需要配置節點和路由節點。就三種集羣搭建方式來說,這種是最複雜的。部署圖如下:


1.啓動數據節點

./mongod --fork --dbpath ../data/set1/ --logpath ../log/set1.log --replSet test #192.168.4.43  
./mongod --fork --dbpath ../data/set2/ --logpath ../log/set2.log --replSet test #192.168.4.44  
./mongod --fork --dbpath ../data/set3/ --logpath ../log/set3.log --replSet test #192.168.4.45 決策 不存儲數據

2.啓動配置節點

./mongod --configsvr --dbpath ../config/set1/ --port 20001 --fork --logpath ../log/conf1.log #192.168.4.30  
./mongod --configsvr --dbpath ../config/set2/ --port 20002 --fork --logpath ../log/conf2.log #192.168.4.31

3.啓動路由節點

./mongos --configdb 192.168.4.30:20001,192.168.4.31:20002 --port 27017 --fork --logpath ../log/root.log #192.168.4.29

       這裏我們沒有用配置文件的方式啓動,其中的參數意義大家應該都明白。一般來說一個數據節點對應一個配置節點,仲裁節點則不需要對應的配置節點。注意在啓動路由節點時,要將配置節點地址寫入到啓動命令裏。

4.配置Replica Set

       這裏可能會有點奇怪爲什麼Sharding會需要配置Replica Set。其實想想也能明白,多個節點的數據肯定是相關聯的,如果不配一個Replica Set,怎麼標識是同一個集羣的呢。這也是人家mongodb的規定,咱們還是遵守吧。配置方式和之前所說的一樣,定一個cfg,然後初始化配置。

./mongo 192.168.4.43:27017   #ip和port是某個節點的地址  
>use admin  
>cfg={ _id:"testrs", members:[ {_id:0,host:'192.168.4.43:27017',priority:2}, {_id:1,host:'192.168.4.44:27017',priority:1},   
{_id:2,host:'192.168.4.45:27017',arbiterOnly:true}] };  
>rs.initiate(cfg)             #使配置生效

主庫、從庫都需要運行: db.getMongo().setSlaveOk(),才能同步數據

5.配置Sharding

./mongo 192.168.4.29:27017   #這裏必須連接路由節點  
>sh.addShard("test/192.168.4.43:27017") #test表示replica set的名字 當把主節點添加到shard以後,會自動找到set裏的主,備,決策節點  
>db.runCommand({enableSharding:"diameter_test"})    #diameter_test is database name  
>db.runCommand( { shardCollection: "diameter_test.dcca_dccr_test",key:{"__avpSessionId":1}})

       第一個命令很容易理解,第二個命令是對需要進行Sharding的數據庫進行配置,第三個命令是對需要進行Sharding的Collection進行配置,這裏的dcca_dccr_test即爲Collection的名字。另外還有個key,這個是比較關鍵的東西,對於查詢效率會有很大的影響,具體可以查看Shard Key Overview

       到這裏Sharding也已經搭建完成了,以上只是最簡單的搭建方式,其中某些配置仍然使用的是默認配置。如果設置不當,會導致效率異常低下,所以建議大家多看看官方文檔再進行默認配置的修改。


Master-Slaver

這個是最簡答的集羣搭建,不過準確說也不能算是集羣,只能說是主備。並且官方已經不推薦這種方式,所以在這裏只是簡單的介紹下吧,搭建方式也相對簡單。

./mongod --master --dbpath /data/masterdb/      #主節點  
  
./mongod --slave --source <masterip:masterport> --dbpath /data/slavedb/     備節點

 

       基本上只要在主節點和備節點上分別執行這兩條命令,Master-Slaver就算搭建完成了。我沒有試過主節點掛掉後備節點是否能變成主節點,不過既然已經不推薦了,大家就沒必要去使用了。


       以上三種集羣搭建方式首選Replica Set,只有真的是大數據,Sharding才能顯現威力,畢竟備節點同步數據是需要時間的。Sharding可以將多片數據集中到路由節點上進行一些對比,然後將數據返回給客戶端,但是效率還是比較低的說。

       我自己有測試過,不過具體的機器配置已經不記得了。Replica Set的ips在數據達到1400w條時基本能達到1000左右,而Sharding在300w時已經下降到500ips了,兩者的單位數據大小大概是10kb。大家在應用的時候還是多多做下性能測試,畢竟不像Redis有benchmark。

       Mongodb現在用的還是比較多的,但是個人覺得配置太多了。。。。我看官網都看了好多天,才把集羣搭建的配置和注意要點弄明白。而且用過的人應該知道mongodb吃內存的問題,解決辦法只能通過ulimit來控制內存使用量,但是如果控制不好的話,mongodb會掛掉。。。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章