前言
整理一下ElasticSearch中使用的場景
索引更新
索引構建主要分爲兩種
- 全量索引構建:從頭全部重新建,通常因爲:首次構建、增減字段、分詞修改、時間久了增量丟數據後
- 增量索引構建:只創建或者修改更新的數據,有如下優勢
- 準確性高:數據變更後,es馬上更新,不影響用戶體驗
- 性能快:電商高併發場景下
- 高可用、實現簡單:es集羣、canal
增量構建索引的可選方案
**單系統應用:**比較簡單,插入數據庫時更新es數據,如失敗進行補償機制
**分佈式系統:**搜索中心作爲獨立部署,大部分情況下是這樣的
- 利用成熟的MQ中間件:通常的做法就是業務系統有數據變更時發送Message,搜索中心監聽消費消息
- 通過SQL查詢語句定時掃描數據庫:輪詢進行更新,但是:DELETE、數據量大的情況下 都會出問題
- 阿里巴巴canal中間件:原理通過數據庫bin_log 進行差異化更新
使用Canal
Github官方:https://github.com/alibaba/canal
canal 工作原理
- canal 模擬 MySQL slave 的交互協議,僞裝自己爲 MySQL slave ,向 MySQL master 發送dump 協議
- MySQL master 收到 dump 請求,開始推送 binary log 給 slave (即 canal )
- canal 解析 binary log 對象(原始爲 byte 流)
MySQL 配置
mysql.ini 其實跟標準主從配置沒什麼區別,主要是 寫入格式爲 ROW
[mysqld]
# 開啓 binlog
log-bin=mysql-bin
# 選擇 ROW 模式
binlog-format=ROW
# 配置 MySQL replaction 需要定義,不要和 canal 的 slaveId 重複
server_id=1
canal-server在啓動時,會去dump表結構並緩存,要求添加``權限
CREATE USER canal IDENTIFIED BY 'canal';
# 爲了先跑通,先全開一會回收
GRANT ALL PRIVILEGES ON *.* TO 'canal'@'%' ;
FLUSH PRIVILEGES;
授權 canal 鏈接 MySQL 賬號具有作爲 MySQL slave 的權限, 如果已有賬戶可直接 grant
REVOKE ALL PRIVILEGES ON *.* FROM 'canal'@'%' ;
GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%';
FLUSH PRIVILEGES;
查看
show grants for 'canal'@'%';
Docker快速入門
docker pull canal/canal-server:v1.1.1
啓動
docker run -d \
-p 2222:2222 \
-p 8000:8000 \
-p 11111:11111 \
-p 11112:11112 \
--name my-canal \
-e canal.auto.scan=false \
-e canal.destinations=test \
-e canal.instance.master.address=host.docker.internal:3306 \
-e canal.instance.dbUsername=canal \
-e canal.instance.dbPassword=canal \
-e canal.instance.connectionCharset=UTF-8 \
-e canal.instance.tsdb.enable=true \
-e canal.instance.gtidon=false \
canal/canal-server:v1.1.1
如果有問題,可以查看日誌
docker exec -it my-canal tail -f /home/admin/canal-server/logs/canal/canal.log
Java 配置
引入依賴
<dependency>
<groupId>com.alibaba.otter</groupId>
<artifactId>canal.client</artifactId>
<version>1.1.4</version>
</dependency>
代碼
public class SimpleCanalClientExample {
public static void main(String args[]) {
CanalConnector connector = CanalConnectors.newSingleConnector(
new InetSocketAddress("127.0.0.1", 11111), "test", "canal", "canal");
int batchSize = 1000;
int emptyCount = 0;
try {
connector.connect();
connector.subscribe(".*\\..*");
connector.rollback();
int totalEmptyCount = 120;
while (emptyCount < totalEmptyCount) {
// 獲取指定數量的數據
Message message = connector.getWithoutAck(batchSize);
long batchId = message.getId();
int size = message.getEntries().size();
if (batchId == -1 || size == 0) {
emptyCount++;
System.out.println("empty count : " + emptyCount);
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
}
} else {
emptyCount = 0;
// System.out.printf("message[batchId=%s,size=%s] \n", batchId, size);
printEntry(message.getEntries());
}
connector.ack(batchId); // 提交確認
// connector.rollback(batchId); // 處理失敗, 回滾數據
}
System.out.println("empty too many times, exit");
} finally {
connector.disconnect();
}
}
private static void printEntry(List<Entry> entrys) {
for (Entry entry : entrys) {
if (entry.getEntryType() == EntryType.TRANSACTIONBEGIN || entry.getEntryType() == EntryType.TRANSACTIONEND) {
continue;
}
RowChange rowChage = null;
try {
rowChage = RowChange.parseFrom(entry.getStoreValue());
} catch (Exception e) {
throw new RuntimeException("ERROR ## parser of eromanga-event has an error , data:" + entry.toString(),
e);
}
EventType eventType = rowChage.getEventType();
System.out.println(String.format("================> binlog[%s:%s] , name[%s,%s] , eventType : %s",
entry.getHeader().getLogfileName(), entry.getHeader().getLogfileOffset(),
entry.getHeader().getSchemaName(), entry.getHeader().getTableName(),
eventType));
for (RowData rowData : rowChage.getRowDatasList()) {
if (eventType == EventType.DELETE) {
printColumn(rowData.getBeforeColumnsList());
} else if (eventType == EventType.INSERT) {
printColumn(rowData.getAfterColumnsList());
} else {
System.out.println("-------> before");
printColumn(rowData.getBeforeColumnsList());
System.out.println("-------> after");
printColumn(rowData.getAfterColumnsList());
}
}
}
}
private static void printColumn(List<Column> columns) {
for (Column column : columns) {
System.out.println(column.getName() + " : " + column.getValue() + " update=" + column.getUpdated());
}
}
}
測試
創建測試表
CREATE TABLE `xdual` (
`ID` int(11) NOT NULL AUTO_INCREMENT,
`X` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP,
PRIMARY KEY (`ID`)
) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8
insert into xdual(id,x) values(null,now());
錯誤解決
https://blog.csdn.net/chenzuancong9642/article/details/101040754