簡介
MyBatis-Plus(簡稱 MP)是一個 MyBatis 的增強工具,在 MyBatis 的基礎上只做增強不做改變,爲簡化開發、提高效率而生。
整合了Hibernate和Mybatis的有點,即簡化了單表基礎的操作,又可自定義sql語句。
官方文檔:https://mp.baomidou.com/guide/
特性
- 無侵入:只做增強不做改變,引入它不會對現有工程產生影響,如絲般順滑
- 損耗小:啓動即會自動注入基本 CURD,性能基本無損耗,直接面向對象操作
- 強大的 CRUD 操作:內置通用 Mapper、通用 Service,僅僅通過少量配置即可實現單表大部分 CRUD 操作,更有強大的條件構造器,滿足各類使用需求
- 支持 Lambda 形式調用:通過 Lambda 表達式,方便的編寫各類查詢條件,無需再擔心字段寫錯
- 支持主鍵自動生成:支持多達 4 種主鍵策略(內含分佈式唯一 ID 生成器 - Sequence),可自由配置,完美解決主鍵問題
- 支持 ActiveRecord 模式:支持 ActiveRecord 形式調用,實體類只需繼承 Model 類即可進行強大的 CRUD 操作
- 支持自定義全局通用操作:支持全局通用方法注入( Write once, use anywhere )
- 內置代碼生成器:採用代碼或者 Maven 插件可快速生成 Mapper 、 Model 、 Service 、 Controller 層代碼,支持模板引擎,更有超多自定義配置等您來使用
- 內置分頁插件:基於 MyBatis 物理分頁,開發者無需關心具體操作,配置好插件之後,寫分頁等同於普通 List 查詢
- 分頁插件支持多種數據庫:支持 MySQL、MariaDB、Oracle、DB2、H2、HSQL、SQLite、Postgre、SQLServer 等多種數據庫
- 內置性能分析插件:可輸出 Sql 語句以及其執行時間,建議開發測試時啓用該功能,能快速揪出慢查詢
- 內置全局攔截插件:提供全表 delete 、 update 操作智能分析阻斷,也可自定義攔截規則,預防誤操作
快速開始
增加相關依賴包
<!--mybatis-plus-->
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>mybatis-plus-boot-starter</artifactId>
<version>3.3.0</version>
</dependency>
<!--mybatis-plus 動態數據源-->
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>dynamic-datasource-spring-boot-starter</artifactId>
<version>2.5.7</version>
</dependency>
配置
配置詳解:https://mp.baomidou.com/config/#%E5%9F%BA%E6%9C%AC%E9%85%8D%E7%BD%AE
#MyBatisPlus
mybatis-plus:
mapper-locations: classpath*:/mapper/*.xml
type-aliases-package: com.gourd.hu
type-aliases-super-type: com.gourd.hu.base.data.BaseEntity
type-handlers-package: com.gourd.hu.base.type.handler
scripting-language-driver:
global-config:
banner: false # 關閉打印mybatis-plus的LOGO
db-config:
logic-delete-value: 1 # 邏輯已刪除值(默認爲 1)
logic-not-delete-value: 0 # 邏輯未刪除值(默認爲 0)
spring:
# 數據庫配置
datasource:
dynamic:
p6spy: true # 默認false,建議線上關閉
primary: master #設置默認的數據源或者數據源組,默認值即爲master
datasource:
master:
url: xxx
driver-class-name: com.mysql.cj.jdbc.Driver
username: root
password: xxx
slave:
url: xxx
driver-class-name: com.mysql.cj.jdbc.Driver
username: root
password: xxx
啓動類增加@MapperScan註解
@SpringBootApplication
@MapperScan({"com.gourd.hu.*.dao"})
public class ServiceHuApplication {
public static void main(String[] args) {
SpringApplication.run(ServiceHuApplication.class, args);
log.warn(">o< gourd-hu服務啓動成功!溫馨提示:代碼千萬行,註釋第一行,命名不規範,同事淚兩行 >o<");
}
/**
* 主數據源
* @return
*/
@Primary
@Bean
@ConfigurationProperties(prefix = "spring.datasource.dynamic.datasource.master")
public DruidDataSource druidDataSource() {
return new DruidDataSource();
}
}
拓展功能
動態數據源切換
使用 @DS 切換數據源。
@DS 可以註解在方法上和類上,同時存在方法註解優先於類上註解。
註解在service實現或mapper接口方法上,但強烈不建議同時在service和mapper註解。 (可能會有問題)
公共字段自動填充
新增處理器實現 MetaObjectHandler 接口,並增加@Component 註解自動注入到spring容器中管理
/**
* 元對象字段填充控制器
* 自定義填充公共字段 ,即沒有傳的字段自動填充
*
* @author gourd
**/
@Component
public class FillMetaObjectHandler implements MetaObjectHandler {
/**
* 新增填充
*
* @param metaObject
*/
@Override
public void insertFill(MetaObject metaObject) {
// 此處userId根據自己的業務框架獲取到
Long userId = 0L;
fillCreateMeta(metaObject, userId);
fillUpdateMeta(metaObject, userId);
fillCommonMeta(metaObject);
}
/**
* 更新填充
*
* @param metaObject
*/
@Override
public void updateFill(MetaObject metaObject) {
// 此處userId根據自己的業務框架獲取到
Long userId = 0L;
fillUpdateMeta(metaObject,userId);
}
private void fillCommonMeta(MetaObject metaObject) {
if (metaObject.hasGetter("version") && metaObject.hasGetter("deleted")) {
setFieldValByName("version",1L,metaObject);
setFieldValByName("deleted",false,metaObject);
}
}
private void fillCreateMeta(MetaObject metaObject, Long userId) {
if (metaObject.hasGetter("createdBy") && metaObject.hasGetter("createdTime")) {
setFieldValByName("createdBy", userId, metaObject);
setFieldValByName("createdTime", new Date(), metaObject);
}
}
private void fillUpdateMeta(MetaObject metaObject, Long userId) {
if (metaObject.hasGetter("updatedBy") && metaObject.hasGetter("updatedTime")) {
setFieldValByName("updatedBy", userId, metaObject);
setFieldValByName("updatedTime", new Date(), metaObject);
}
}
}
ID自動填充
新增Id填充處理器實現 IdentifierGenerator 接口,並增加@Component 註解自動注入到spring容器中管理。
其中ID的生成策略可以自定義,並不一定要按照我的方式。
/**
* 實體類id自動填充
* @author gourd
*/
@Component
public class EntityIdGeneratorHandler implements IdentifierGenerator {
private static final IdWorker idWorker = new IdWorker(0,1);
@Override
public Long nextId(Object entity) {
return idWorker.nextId();
}
}
/**
* <p>名稱:IdWorker.java</p>
* <p>描述:分佈式自增長ID</p>
* <pre>
* Twitter的 Snowflake JAVA實現方案
* </pre>
* 核心代碼爲其IdWorker這個類實現,其原理結構如下,我分別用一個0表示一位,用—分割開部分的作用:
* 1||0---0000000000 0000000000 0000000000 0000000000 0 --- 00000 ---00000 ---000000000000
* 在上面的字符串中,第一位爲未使用(實際上也可作爲long的符號位),接下來的41位爲毫秒級時間,
* 然後5位datacenter標識位,5位機器ID(並不算標識符,實際是爲線程標識),
* 然後12位該毫秒內的當前毫秒內的計數,加起來剛好64位,爲一個Long型。
* 這樣的好處是,整體上按照時間自增排序,並且整個分佈式系統內不會產生ID碰撞(由datacenter和機器ID作區分),
* 並且效率較高,經測試,snowflake每秒能夠產生26萬ID左右,完全滿足需要。
* <p>
* 64位ID (42(毫秒)+5(機器ID)+5(業務編碼)+12(重複累加))
* @author gourd
*/
public class IdWorker {
// 時間起始標記點,作爲基準,一般取系統的最近時間(一旦確定不能變動)
private final static long twepoch = 1288834974657L;
// 機器標識位數
private final static long workerIdBits = 5L;
// 數據中心標識位數
private final static long datacenterIdBits = 5L;
// 機器ID最大值
private final static long maxWorkerId = -1L ^ (-1L << workerIdBits);
// 數據中心ID最大值
private final static long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
// 毫秒內自增位
private final static long sequenceBits = 12L;
// 機器ID偏左移12位
private final static long workerIdShift = sequenceBits;
// 數據中心ID左移17位
private final static long datacenterIdShift = sequenceBits + workerIdBits;
// 時間毫秒左移22位
private final static long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
private final static long sequenceMask = -1L ^ (-1L << sequenceBits);
/* 上次生產id時間戳 */
private static long lastTimestamp = -1L;
// 0,併發控制
private long sequence = 0L;
private final long workerId;
// 數據標識id部分
private final long datacenterId;
public IdWorker() {
this.datacenterId = getDatacenterId(maxDatacenterId);
this.workerId = getMaxWorkerId(datacenterId, maxWorkerId);
}
/**
* @param workerId 工作機器ID
* @param datacenterId 序列號
*/
public IdWorker(long workerId, long datacenterId) {
if (workerId > maxWorkerId || workerId < 0) {
throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
}
if (datacenterId > maxDatacenterId || datacenterId < 0) {
throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
}
this.workerId = workerId;
this.datacenterId = datacenterId;
}
/**
* 獲取下一個ID
*
* @return
*/
public synchronized long nextId() {
long timestamp = timeGen();
if (timestamp < lastTimestamp) {
throw new RuntimeException(String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
}
if (lastTimestamp == timestamp) {
// 當前毫秒內,則+1
sequence = (sequence + 1) & sequenceMask;
if (sequence == 0) {
// 當前毫秒內計數滿了,則等待下一秒
timestamp = tilNextMillis(lastTimestamp);
}
} else {
sequence = 0L;
}
lastTimestamp = timestamp;
// ID偏移組合生成最終的ID,並返回ID
long nextId = ((timestamp - twepoch) << timestampLeftShift)
| (datacenterId << datacenterIdShift)
| (workerId << workerIdShift) | sequence;
return nextId;
}
private long tilNextMillis(final long lastTimestamp) {
long timestamp = this.timeGen();
while (timestamp <= lastTimestamp) {
timestamp = this.timeGen();
}
return timestamp;
}
private long timeGen() {
return System.currentTimeMillis();
}
/**
* <p>
* 獲取 maxWorkerId
* </p>
*/
protected static long getMaxWorkerId(long datacenterId, long maxWorkerId) {
StringBuffer mpid = new StringBuffer();
mpid.append(datacenterId);
String name = ManagementFactory.getRuntimeMXBean().getName();
if (!name.isEmpty()) {
/*
* GET jvmPid
*/
mpid.append(name.split("@")[0]);
}
/*
* MAC + PID 的 hashcode 獲取16個低位
*/
return (mpid.toString().hashCode() & 0xffff) % (maxWorkerId + 1);
}
/**
* <p>
* 數據標識id部分
* </p>
*/
protected static long getDatacenterId(long maxDatacenterId) {
long id = 0L;
try {
InetAddress ip = InetAddress.getLocalHost();
NetworkInterface network = NetworkInterface.getByInetAddress(ip);
if (network == null) {
id = 1L;
} else {
byte[] mac = network.getHardwareAddress();
id = ((0x000000FF & (long) mac[mac.length - 1])
| (0x0000FF00 & (((long) mac[mac.length - 2]) << 8))) >> 6;
id = id % (maxDatacenterId + 1);
}
} catch (Exception e) {
}
return id;
}
public static void main(String[] args) {
// IdWorker idWorker = new IdWorker(31,31);
// System.out.println("idWorker="+idWorker.nextId());
IdWorker id = new IdWorker(0, 1);
// System.out.println("id="+id.nextId());
// System.out.println(id.datacenterId);
// System.out.println(id.workerId);
for (int i = 0; i < 9000; i++) {
System.err.println(id.nextId());
}
}
}
邏輯刪除
配置增加如下
mybatis-plus:
global-config:
db-config:
logic-delete-field: flag #全局邏輯刪除字段值,也可在實體類上增加@TableLogic註解
logic-delete-value: 1 # 邏輯已刪除值(默認爲 1)
logic-not-delete-value: 0 # 邏輯未刪除值(默認爲 0)
如果不配置logic-delete-field,需要在實體類上增加 @TableLogic註解。
/**
* 公共實體父類
* @author gourd
*/
@Data
public class BaseEntity extends Model{
/**
* 主鍵id
*/
@TableId(type= IdType.ASSIGN_ID)
private Long id;
/**
* 創建人
*/
@TableField(value = "created_by",fill = FieldFill.INSERT)
private Long createdBy;
/**
* 創建時間
*/
@TableField(value = "created_time",fill = FieldFill.INSERT)
private Date createdTime;
/**
* 更新人
*/
@TableField(value = "updated_by",fill = FieldFill.INSERT_UPDATE)
private Long updatedBy;
/**
* 更新時間
*/
@TableField(value = "updated_time",fill = FieldFill.INSERT_UPDATE)
private Date updatedTime;
/**
* 版本號
*/
@Version
@TableField(fill = FieldFill.INSERT)
private Long version;
/**
* 邏輯刪除狀態
*/
@TableLogic
@TableField(value = "is_deleted",fill = FieldFill.INSERT)
private Boolean deleted;
@Override
protected Serializable pkVal() {
return null;
}
}
樂觀鎖插件
/**
* mybatis-plus樂觀鎖插件
* @return
*/
@Bean
public OptimisticLockerInterceptor optimisticLockerInterceptor() {
return new OptimisticLockerInterceptor();
}
sql注入器
/**
* Sql 注入器
* @return
*/
@Bean
public ISqlInjector sqlInjector() {
return new DefaultSqlInjector();
}
執行 SQL 分析打印
藉助於三方插件 p6spy
<!--p6spy 打印sql-->
<dependency>
<groupId>p6spy</groupId>
<artifactId>p6spy</artifactId>
<version>3.8.0</version>
</dependency>
修改數據庫連接配置,生產環境不建議開啓。
url: jdbc:p6spy:mysql://xxx?useUnicode=true&characterEncoding=utf-8&serverTimezone=UTC&useSSL=false&nullCatalogMeansCurrent=true&serverTimezone=GMT%2B8
driver-class-name: com.p6spy.engine.spy.P6SpyDriver
在resource目錄下增加 spy.properties
# 指定應用的日誌攔截模塊,默認爲com.p6spy.engine.spy.P6SpyFactory
#modulelist=com.p6spy.engine.spy.P6SpyFactory,com.p6spy.engine.logging.P6LogFactory,com.p6spy.engine.outage.P6OutageFactory
# 真實JDBC driver , 多個以 逗號 分割 默認爲空
#driverlist=
# 是否自動刷新 默認 flase
#autoflush=false
# 配置SimpleDateFormat日期格式 默認爲空
dateformat=yyyy-MM-dd HH:mm:ss
# 打印堆棧跟蹤信息 默認flase
#stacktrace=false
# 如果 stacktrace=true,則可以指定具體的類名來進行過濾。
#stacktraceclass=
# 監測屬性配置文件是否進行重新加載
#reloadproperties=false
# 屬性配置文件重新加載的時間間隔,單位:秒 默認60s
#reloadpropertiesinterval=60
# 指定 Log 的 appender,取值:
#appender=com.p6spy.engine.spy.appender.Slf4JLogger
#appender=com.p6spy.engine.spy.appender.StdoutLogger
#appender=com.p6spy.engine.spy.appender.FileLogger
# 使用日誌系統記錄 sql
appender=com.p6spy.engine.spy.appender.Slf4JLogger
# 設置 p6spy driver 代理
deregisterdrivers=true
# 取消JDBC URL前綴
useprefix=true
# 指定 Log 的文件名 默認 spy.log
#logfile=spy.log
# 指定是否每次是增加 Log,設置爲 false 則每次都會先進行清空 默認true
#append=true
# 指定日誌輸出樣式 默認爲com.p6spy.engine.spy.appender.SingleLineFormat , 單行輸出 不格式化語句
#logMessageFormat=com.p6spy.engine.spy.appender.SingleLineFormat
# 自定義日誌打印
logMessageFormat=com.baomidou.mybatisplus.extension.p6spy.P6SpyLogger
# 也可以採用 com.p6spy.engine.spy.appender.CustomLineFormat 來自定義輸出樣式, 默認值是%(currentTime)|%(executionTime)|%(category)|connection%(connectionId)|%(sqlSingleLine)
# 可用的變量爲:
# %(connectionId) connection id
# %(currentTime) 當前時間
# %(executionTime) 執行耗時
# %(category) 執行分組
# %(effectiveSql) 提交的SQL 換行
# %(effectiveSqlSingleLine) 提交的SQL 不換行顯示
# %(sql) 執行的真實SQL語句,已替換佔位
# %(sqlSingleLine) 執行的真實SQL語句,已替換佔位 不換行顯示
#customLogMessageFormat=%(currentTime)|%(executionTime)|%(category)|connection%(connectionId)|%(sqlSingleLine)
# date類型字段記錄日誌時使用的日期格式 默認dd-MMM-yy
#databaseDialectDateFormat=dd-MMM-yy
# boolean類型字段記錄日誌時使用的日期格式 默認boolean 可選值numeric
#databaseDialectBooleanFormat=boolean
# 是否通過jmx暴露屬性 默認true
#jmx=true
# 如果jmx設置爲true 指定通過jmx暴露屬性時的前綴 默認爲空
# com.p6spy(.<jmxPrefix>)?:name=<optionsClassName>
#jmxPrefix=
# 是否顯示納秒 默認false
#useNanoTime=false
# 實際數據源 JNDI
#realdatasource=/RealMySqlDS
# 實際數據源 datasource class
#realdatasourceclass=com.mysql.jdbc.jdbc2.optional.MysqlDataSource
# 實際數據源所攜帶的配置參數 以 k=v 方式指定 以 分號 分割
#realdatasourceproperties=port;3306,serverName;myhost,databaseName;jbossdb,foo;bar
# jndi數據源配置
# 設置 JNDI 數據源的 NamingContextFactory。
#jndicontextfactory=org.jnp.interfaces.NamingContextFactory
# 設置 JNDI 數據源的提供者的 URL。
#jndicontextproviderurl=localhost:1099
# 設置 JNDI 數據源的一些定製信息,以分號分隔。
#jndicontextcustom=java.naming.factory.url.pkgs;org.jboss.naming:org.jnp.interfaces
# 是否開啓日誌過濾 默認false, 這項配置是否生效前提是配置了 include/exclude/sqlexpression
filter=true
# 過濾 Log 時所包含的表名列表,以逗號分隔 默認爲空
#include=
# 過濾 Log 時所排除的表名列表,以逗號分隔 默認爲空
exclude= foreign_key_checks,variable_name,GET_LOCK,RELEASE_LOCK,flyway_schema_history,information_schema,@,SELECT DATABASE(),SELECT version(),ACT_,QRTZ_
# 過濾 Log 時的 SQL 正則表達式名稱 默認爲空
#sqlexpression=
#顯示指定過濾 Log 時排隊的分類列表,取值: error, info, batch, debug, statement,
#commit, rollback, result and resultset are valid values
# (默認 info,debug,result,resultset,batch)
#excludecategories=info,debug,result,resultset,batch
# 是否過濾二進制字段
# (default is false)
#excludebinary=false
# P6Log 模塊執行時間設置,整數值 (以毫秒爲單位),只有當超過這個時間才進行記錄 Log。 默認爲0
#executionThreshold=
# P6Outage 模塊是否記錄較長時間運行的語句 默認false
# outagedetection=true
# P6Outage 模塊執行時間設置,整數值 (以秒爲單位)),只有當超過這個時間才進行記錄 Log。 默認30s
# outagedetectioninterval=5s
===============================================
代碼均已上傳至本人的開源項目
葫蘆胡:https://blog.csdn.net/HXNLYW/article/details/98037354