《SpringBoot2.0 實戰》系列-集成MybatisPlus並配置動態數據源

簡介

MyBatis-Plus(簡稱 MP)是一個 MyBatis 的增強工具,在 MyBatis 的基礎上只做增強不做改變,爲簡化開發、提高效率而生。

整合了Hibernate和Mybatis的有點,即簡化了單表基礎的操作,又可自定義sql語句。

官方文檔:https://mp.baomidou.com/guide/

特性

  • 無侵入:只做增強不做改變,引入它不會對現有工程產生影響,如絲般順滑
  • 損耗小:啓動即會自動注入基本 CURD,性能基本無損耗,直接面向對象操作
  • 強大的 CRUD 操作:內置通用 Mapper、通用 Service,僅僅通過少量配置即可實現單表大部分 CRUD 操作,更有強大的條件構造器,滿足各類使用需求
  • 支持 Lambda 形式調用:通過 Lambda 表達式,方便的編寫各類查詢條件,無需再擔心字段寫錯
  • 支持主鍵自動生成:支持多達 4 種主鍵策略(內含分佈式唯一 ID 生成器 - Sequence),可自由配置,完美解決主鍵問題
  • 支持 ActiveRecord 模式:支持 ActiveRecord 形式調用,實體類只需繼承 Model 類即可進行強大的 CRUD 操作
  • 支持自定義全局通用操作:支持全局通用方法注入( Write once, use anywhere )
  • 內置代碼生成器:採用代碼或者 Maven 插件可快速生成 Mapper 、 Model 、 Service 、 Controller 層代碼,支持模板引擎,更有超多自定義配置等您來使用
  • 內置分頁插件:基於 MyBatis 物理分頁,開發者無需關心具體操作,配置好插件之後,寫分頁等同於普通 List 查詢
  • 分頁插件支持多種數據庫:支持 MySQL、MariaDB、Oracle、DB2、H2、HSQL、SQLite、Postgre、SQLServer 等多種數據庫
  • 內置性能分析插件:可輸出 Sql 語句以及其執行時間,建議開發測試時啓用該功能,能快速揪出慢查詢
  • 內置全局攔截插件:提供全表 delete 、 update 操作智能分析阻斷,也可自定義攔截規則,預防誤操作

快速開始

增加相關依賴包

<!--mybatis-plus-->
<dependency>
    <groupId>com.baomidou</groupId>
    <artifactId>mybatis-plus-boot-starter</artifactId>
    <version>3.3.0</version>
</dependency>
<!--mybatis-plus 動態數據源-->
<dependency>
    <groupId>com.baomidou</groupId>
    <artifactId>dynamic-datasource-spring-boot-starter</artifactId>
    <version>2.5.7</version>
</dependency>

配置

配置詳解:https://mp.baomidou.com/config/#%E5%9F%BA%E6%9C%AC%E9%85%8D%E7%BD%AE

#MyBatisPlus
mybatis-plus:
  mapper-locations: classpath*:/mapper/*.xml
  type-aliases-package: com.gourd.hu
  type-aliases-super-type: com.gourd.hu.base.data.BaseEntity
  type-handlers-package: com.gourd.hu.base.type.handler
  scripting-language-driver:
  global-config:
    banner: false # 關閉打印mybatis-plus的LOGO
    db-config:
      logic-delete-value: 1 # 邏輯已刪除值(默認爲 1)
      logic-not-delete-value: 0 # 邏輯未刪除值(默認爲 0)

spring:
  # 數據庫配置
  datasource:
    dynamic:
      p6spy: true # 默認false,建議線上關閉
      primary: master #設置默認的數據源或者數據源組,默認值即爲master
      datasource:
        master:
          url: xxx
          driver-class-name: com.mysql.cj.jdbc.Driver
          username: root
          password: xxx
        slave:
          url: xxx
          driver-class-name: com.mysql.cj.jdbc.Driver
          username: root
          password: xxx

 啓動類增加@MapperScan註解

@SpringBootApplication
@MapperScan({"com.gourd.hu.*.dao"})
public class ServiceHuApplication {

    public static void main(String[] args) {
        SpringApplication.run(ServiceHuApplication.class, args);
        log.warn(">o< gourd-hu服務啓動成功!溫馨提示:代碼千萬行,註釋第一行,命名不規範,同事淚兩行 >o<");
    }

    /**
     * 主數據源
     * @return
     */
    @Primary
    @Bean
    @ConfigurationProperties(prefix = "spring.datasource.dynamic.datasource.master")
    public DruidDataSource druidDataSource() {
        return new DruidDataSource();
    }
}

拓展功能

動態數據源切換

使用 @DS 切換數據源。

@DS 可以註解在方法上和類上,同時存在方法註解優先於類上註解

註解在service實現或mapper接口方法上,但強烈不建議同時在service和mapper註解。 (可能會有問題)

 公共字段自動填充

新增處理器實現 MetaObjectHandler 接口,並增加@Component 註解自動注入到spring容器中管理

/**
 * 元對象字段填充控制器
 * 自定義填充公共字段 ,即沒有傳的字段自動填充
 *
 * @author gourd
 **/
@Component
public class FillMetaObjectHandler implements MetaObjectHandler {
    /**
     *  新增填充
     *
     *  @param metaObject
     */
    @Override
    public void insertFill(MetaObject metaObject) {
        // 此處userId根據自己的業務框架獲取到
        Long userId = 0L;
        fillCreateMeta(metaObject, userId);
        fillUpdateMeta(metaObject, userId);
        fillCommonMeta(metaObject);
    }

    /**
     * 更新填充
     *
     * @param metaObject
     */
    @Override
    public void updateFill(MetaObject metaObject) {
        // 此處userId根據自己的業務框架獲取到
        Long userId = 0L;
        fillUpdateMeta(metaObject,userId);
    }

    private void fillCommonMeta(MetaObject metaObject) {
        if (metaObject.hasGetter("version") && metaObject.hasGetter("deleted")) {
            setFieldValByName("version",1L,metaObject);
            setFieldValByName("deleted",false,metaObject);
        }
    }

    private void fillCreateMeta(MetaObject metaObject, Long userId) {
        if (metaObject.hasGetter("createdBy") && metaObject.hasGetter("createdTime")) {
            setFieldValByName("createdBy", userId, metaObject);
            setFieldValByName("createdTime", new Date(), metaObject);
        }
    }
    private void fillUpdateMeta(MetaObject metaObject, Long userId) {
        if (metaObject.hasGetter("updatedBy") && metaObject.hasGetter("updatedTime")) {
            setFieldValByName("updatedBy", userId, metaObject);
            setFieldValByName("updatedTime", new Date(), metaObject);
        }
    }
}

ID自動填充

 新增Id填充處理器實現 IdentifierGenerator 接口,並增加@Component 註解自動注入到spring容器中管理。

其中ID的生成策略可以自定義,並不一定要按照我的方式。

/**
 * 實體類id自動填充
 * @author gourd
 */
@Component
public class EntityIdGeneratorHandler implements IdentifierGenerator {

    private static final IdWorker idWorker = new IdWorker(0,1);

    @Override
    public Long nextId(Object entity) {
        return idWorker.nextId();
    }
}

/**
 * <p>名稱:IdWorker.java</p>
 * <p>描述:分佈式自增長ID</p>
 * <pre>
 *     Twitter的 Snowflake JAVA實現方案
 * </pre>
 * 核心代碼爲其IdWorker這個類實現,其原理結構如下,我分別用一個0表示一位,用—分割開部分的作用:
 * 1||0---0000000000 0000000000 0000000000 0000000000 0 --- 00000 ---00000 ---000000000000
 * 在上面的字符串中,第一位爲未使用(實際上也可作爲long的符號位),接下來的41位爲毫秒級時間,
 * 然後5位datacenter標識位,5位機器ID(並不算標識符,實際是爲線程標識),
 * 然後12位該毫秒內的當前毫秒內的計數,加起來剛好64位,爲一個Long型。
 * 這樣的好處是,整體上按照時間自增排序,並且整個分佈式系統內不會產生ID碰撞(由datacenter和機器ID作區分),
 * 並且效率較高,經測試,snowflake每秒能夠產生26萬ID左右,完全滿足需要。
 * <p>
 * 64位ID (42(毫秒)+5(機器ID)+5(業務編碼)+12(重複累加))
 * @author gourd
 */
public class IdWorker {
    // 時間起始標記點,作爲基準,一般取系統的最近時間(一旦確定不能變動)
    private final static long twepoch = 1288834974657L;
    // 機器標識位數
    private final static long workerIdBits = 5L;
    // 數據中心標識位數
    private final static long datacenterIdBits = 5L;
    // 機器ID最大值
    private final static long maxWorkerId = -1L ^ (-1L << workerIdBits);
    // 數據中心ID最大值
    private final static long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
    // 毫秒內自增位
    private final static long sequenceBits = 12L;
    // 機器ID偏左移12位
    private final static long workerIdShift = sequenceBits;
    // 數據中心ID左移17位
    private final static long datacenterIdShift = sequenceBits + workerIdBits;
    // 時間毫秒左移22位
    private final static long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;

    private final static long sequenceMask = -1L ^ (-1L << sequenceBits);
    /* 上次生產id時間戳 */
    private static long lastTimestamp = -1L;
    // 0,併發控制
    private long sequence = 0L;

    private final long workerId;
    // 數據標識id部分
    private final long datacenterId;

    public IdWorker() {
        this.datacenterId = getDatacenterId(maxDatacenterId);
        this.workerId = getMaxWorkerId(datacenterId, maxWorkerId);
    }

    /**
     * @param workerId     工作機器ID
     * @param datacenterId 序列號
     */
    public IdWorker(long workerId, long datacenterId) {
        if (workerId > maxWorkerId || workerId < 0) {
            throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
        }
        if (datacenterId > maxDatacenterId || datacenterId < 0) {
            throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
        }
        this.workerId = workerId;
        this.datacenterId = datacenterId;
    }

    /**
     * 獲取下一個ID
     *
     * @return
     */
    public synchronized long nextId() {
        long timestamp = timeGen();
        if (timestamp < lastTimestamp) {
            throw new RuntimeException(String.format("Clock moved backwards.  Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
        }

        if (lastTimestamp == timestamp) {
            // 當前毫秒內,則+1
            sequence = (sequence + 1) & sequenceMask;
            if (sequence == 0) {
                // 當前毫秒內計數滿了,則等待下一秒
                timestamp = tilNextMillis(lastTimestamp);
            }
        } else {
            sequence = 0L;
        }
        lastTimestamp = timestamp;
        // ID偏移組合生成最終的ID,並返回ID
        long nextId = ((timestamp - twepoch) << timestampLeftShift)
                | (datacenterId << datacenterIdShift)
                | (workerId << workerIdShift) | sequence;

        return nextId;
    }

    private long tilNextMillis(final long lastTimestamp) {
        long timestamp = this.timeGen();
        while (timestamp <= lastTimestamp) {
            timestamp = this.timeGen();
        }
        return timestamp;
    }

    private long timeGen() {
        return System.currentTimeMillis();
    }

    /**
     * <p>
     * 獲取 maxWorkerId
     * </p>
     */
    protected static long getMaxWorkerId(long datacenterId, long maxWorkerId) {
        StringBuffer mpid = new StringBuffer();
        mpid.append(datacenterId);
        String name = ManagementFactory.getRuntimeMXBean().getName();
        if (!name.isEmpty()) {
            /*
             * GET jvmPid
             */
            mpid.append(name.split("@")[0]);
        }
        /*
         * MAC + PID 的 hashcode 獲取16個低位
         */
        return (mpid.toString().hashCode() & 0xffff) % (maxWorkerId + 1);
    }

    /**
     * <p>
     * 數據標識id部分
     * </p>
     */
    protected static long getDatacenterId(long maxDatacenterId) {
        long id = 0L;
        try {
            InetAddress ip = InetAddress.getLocalHost();
            NetworkInterface network = NetworkInterface.getByInetAddress(ip);
            if (network == null) {
                id = 1L;
            } else {
                byte[] mac = network.getHardwareAddress();
                id = ((0x000000FF & (long) mac[mac.length - 1])
                        | (0x0000FF00 & (((long) mac[mac.length - 2]) << 8))) >> 6;
                id = id % (maxDatacenterId + 1);
            }
        } catch (Exception e) {

        }
        return id;
    }

    public static void main(String[] args) {
//        IdWorker idWorker = new IdWorker(31,31);
//        System.out.println("idWorker="+idWorker.nextId());
        IdWorker id = new IdWorker(0, 1);
//        System.out.println("id="+id.nextId());
//        System.out.println(id.datacenterId);
//        System.out.println(id.workerId);

        for (int i = 0; i < 9000; i++) {
            System.err.println(id.nextId());
        }
    }
}

邏輯刪除

 配置增加如下

mybatis-plus:
  global-config:
    db-config:
      logic-delete-field: flag  #全局邏輯刪除字段值,也可在實體類上增加@TableLogic註解
      logic-delete-value: 1 # 邏輯已刪除值(默認爲 1)
      logic-not-delete-value: 0 # 邏輯未刪除值(默認爲 0)

如果不配置logic-delete-field,需要在實體類上增加 @TableLogic註解。

/**
 * 公共實體父類
 * @author gourd
 */
@Data
public class BaseEntity extends Model{

    /**
     * 主鍵id
     */
    @TableId(type= IdType.ASSIGN_ID)
    private Long id;

    /**
     * 創建人
     */
    @TableField(value = "created_by",fill = FieldFill.INSERT)
    private Long createdBy;

    /**
     * 創建時間
     */
    @TableField(value = "created_time",fill = FieldFill.INSERT)
    private Date createdTime;

    /**
     * 更新人
     */
    @TableField(value = "updated_by",fill = FieldFill.INSERT_UPDATE)
    private Long updatedBy;

    /**
     * 更新時間
     */
    @TableField(value = "updated_time",fill = FieldFill.INSERT_UPDATE)
    private Date updatedTime;

    /**
     * 版本號
     */
    @Version
    @TableField(fill = FieldFill.INSERT)
    private Long version;

    /**
     * 邏輯刪除狀態
     */
    @TableLogic
    @TableField(value = "is_deleted",fill = FieldFill.INSERT)
    private Boolean deleted;


    @Override
    protected Serializable pkVal() {
        return null;
    }
}

樂觀鎖插件

    /**
     * mybatis-plus樂觀鎖插件
     * @return
     */
    @Bean
    public OptimisticLockerInterceptor optimisticLockerInterceptor() {
        return new OptimisticLockerInterceptor();
    }

sql注入器

    /**
     * Sql 注入器
     * @return
     */
    @Bean
    public ISqlInjector sqlInjector() {
        return new DefaultSqlInjector();
    }

執行 SQL 分析打印

藉助於三方插件 p6spy

<!--p6spy 打印sql-->
<dependency>
    <groupId>p6spy</groupId>
    <artifactId>p6spy</artifactId>
    <version>3.8.0</version>
</dependency>

修改數據庫連接配置,生產環境不建議開啓。

url: jdbc:p6spy:mysql://xxx?useUnicode=true&characterEncoding=utf-8&serverTimezone=UTC&useSSL=false&nullCatalogMeansCurrent=true&serverTimezone=GMT%2B8
driver-class-name: com.p6spy.engine.spy.P6SpyDriver

在resource目錄下增加 spy.properties

# 指定應用的日誌攔截模塊,默認爲com.p6spy.engine.spy.P6SpyFactory
#modulelist=com.p6spy.engine.spy.P6SpyFactory,com.p6spy.engine.logging.P6LogFactory,com.p6spy.engine.outage.P6OutageFactory

# 真實JDBC driver , 多個以 逗號 分割 默認爲空
#driverlist=

# 是否自動刷新 默認 flase
#autoflush=false

# 配置SimpleDateFormat日期格式 默認爲空
dateformat=yyyy-MM-dd HH:mm:ss

# 打印堆棧跟蹤信息 默認flase
#stacktrace=false

# 如果 stacktrace=true,則可以指定具體的類名來進行過濾。
#stacktraceclass=

# 監測屬性配置文件是否進行重新加載
#reloadproperties=false

# 屬性配置文件重新加載的時間間隔,單位:秒 默認60s
#reloadpropertiesinterval=60

# 指定 Log 的 appender,取值:
#appender=com.p6spy.engine.spy.appender.Slf4JLogger
#appender=com.p6spy.engine.spy.appender.StdoutLogger
#appender=com.p6spy.engine.spy.appender.FileLogger
# 使用日誌系統記錄 sql
appender=com.p6spy.engine.spy.appender.Slf4JLogger
# 設置 p6spy driver 代理
deregisterdrivers=true
# 取消JDBC URL前綴
useprefix=true

# 指定 Log 的文件名 默認 spy.log
#logfile=spy.log

# 指定是否每次是增加 Log,設置爲 false 則每次都會先進行清空 默認true
#append=true

# 指定日誌輸出樣式  默認爲com.p6spy.engine.spy.appender.SingleLineFormat , 單行輸出 不格式化語句
#logMessageFormat=com.p6spy.engine.spy.appender.SingleLineFormat
# 自定義日誌打印
logMessageFormat=com.baomidou.mybatisplus.extension.p6spy.P6SpyLogger

# 也可以採用  com.p6spy.engine.spy.appender.CustomLineFormat 來自定義輸出樣式, 默認值是%(currentTime)|%(executionTime)|%(category)|connection%(connectionId)|%(sqlSingleLine)
# 可用的變量爲:
#   %(connectionId)            connection id
#   %(currentTime)             當前時間
#   %(executionTime)           執行耗時
#   %(category)                執行分組
#   %(effectiveSql)            提交的SQL 換行
#   %(effectiveSqlSingleLine)  提交的SQL 不換行顯示
#   %(sql)                     執行的真實SQL語句,已替換佔位
#   %(sqlSingleLine)           執行的真實SQL語句,已替換佔位 不換行顯示
#customLogMessageFormat=%(currentTime)|%(executionTime)|%(category)|connection%(connectionId)|%(sqlSingleLine)

# date類型字段記錄日誌時使用的日期格式 默認dd-MMM-yy
#databaseDialectDateFormat=dd-MMM-yy

# boolean類型字段記錄日誌時使用的日期格式 默認boolean 可選值numeric
#databaseDialectBooleanFormat=boolean

# 是否通過jmx暴露屬性 默認true
#jmx=true

# 如果jmx設置爲true 指定通過jmx暴露屬性時的前綴 默認爲空
# com.p6spy(.<jmxPrefix>)?:name=<optionsClassName>
#jmxPrefix=

# 是否顯示納秒 默認false
#useNanoTime=false

# 實際數據源 JNDI
#realdatasource=/RealMySqlDS
# 實際數據源 datasource class
#realdatasourceclass=com.mysql.jdbc.jdbc2.optional.MysqlDataSource

# 實際數據源所攜帶的配置參數 以 k=v 方式指定 以 分號 分割
#realdatasourceproperties=port;3306,serverName;myhost,databaseName;jbossdb,foo;bar

# jndi數據源配置
# 設置 JNDI 數據源的 NamingContextFactory。
#jndicontextfactory=org.jnp.interfaces.NamingContextFactory
# 設置 JNDI 數據源的提供者的 URL。
#jndicontextproviderurl=localhost:1099
# 設置 JNDI 數據源的一些定製信息,以分號分隔。
#jndicontextcustom=java.naming.factory.url.pkgs;org.jboss.naming:org.jnp.interfaces

# 是否開啓日誌過濾 默認false, 這項配置是否生效前提是配置了 include/exclude/sqlexpression
filter=true

# 過濾 Log 時所包含的表名列表,以逗號分隔 默認爲空
#include=
# 過濾 Log 時所排除的表名列表,以逗號分隔 默認爲空
exclude= foreign_key_checks,variable_name,GET_LOCK,RELEASE_LOCK,flyway_schema_history,information_schema,@,SELECT DATABASE(),SELECT version(),ACT_,QRTZ_

# 過濾 Log 時的 SQL 正則表達式名稱  默認爲空
#sqlexpression=

#顯示指定過濾 Log 時排隊的分類列表,取值: error, info, batch, debug, statement,
#commit, rollback, result and resultset are valid values
# (默認 info,debug,result,resultset,batch)
#excludecategories=info,debug,result,resultset,batch

# 是否過濾二進制字段
# (default is false)
#excludebinary=false

# P6Log 模塊執行時間設置,整數值 (以毫秒爲單位),只有當超過這個時間才進行記錄 Log。 默認爲0
#executionThreshold=

# P6Outage 模塊是否記錄較長時間運行的語句 默認false
# outagedetection=true
# P6Outage 模塊執行時間設置,整數值 (以秒爲單位)),只有當超過這個時間才進行記錄 Log。 默認30s
# outagedetectioninterval=5s

===============================================

代碼均已上傳至本人的開源項目

葫蘆胡:https://blog.csdn.net/HXNLYW/article/details/98037354

 

 

發佈了89 篇原創文章 · 獲贊 342 · 訪問量 15萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章