該文主要記錄下自己使用過程,以後用到可以看看,我的springBoot版本是2.2.1,2以上應該都沒問題
1.首先添加好需要的依賴包:
<!--mysql-->
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>5.1.35</version>
<scope>runtime</scope>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.1.10</version>
</dependency>
2.logback配置:
springBoot2.0默認使用的日誌是logback已自動集成,對於日誌的配置只需要在resources添加一個logback-spring.xml配置文件就可以自動生效,註釋很明白了,沒學過的看看以下博客:
- https://blog.csdn.net/haidage/article/details/6794509
- https://blog.csdn.net/haidage/article/details/6794529
- https://blog.csdn.net/haidage/article/details/6794540
<?xml version="1.0" encoding="UTF-8"?>
<!--debug屬性配置是否打印日誌框架本身的運行情況信息-->
<configuration debug="false">
<!--自定義日誌存放目錄-->
<property name="LOG_HOME" value="F:/log/hjzlive/" />
<!--只在控制檯輸出日誌組件-->
<appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>%highlight(%d{yyyy-MM-dd HH:mm}) %boldYellow([%thread]) %-5level %boldCyan([%logger{50}[%L]]) %msg%n</pattern>
<charset>UTF-8</charset>
</encoder>
</appender>
<!--info日誌文件輸出組件-->
<appender name="FILE_INFO" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!--當前日誌輸出文件位置,目錄不存在時會自動創建-->
<file>${LOG_HOME}/service.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<!--每天滾動,滿足條件時滾動生成的文件名格式-->
<fileNamePattern>${LOG_HOME}/service.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<!--該日誌的最大數量-->
<MaxHistory>120</MaxHistory>
<!--按文件大小滾動,當某一天的日誌文件大於100m時滾動,生成一個新的文件來存放日誌,結合上面的每天滾動一起使用,可以避免日誌文件過大不利於查找-->
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>100MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!--日誌輸出格式,編碼以及信息格式-->
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>%d{yyyy-MM-dd HH:mm} [%thread] %-5level %logger{50}[%L] - %msg%n</pattern>
<charset>UTF-8</charset>
</encoder>
</appender>
<!--error日誌文件輸出組件-->
<appender name="FILE_ERROR" class="ch.qos.logback.core.rolling.RollingFileAppender">
<file>${LOG_HOME}/error.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_HOME}/error.%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<MaxHistory>120</MaxHistory>
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>100MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!-- 過濾日誌,只輸出error等級的日誌-->
<filter class="ch.qos.logback.classic.filter.ThresholdFilter">
<level>ERROR</level>
</filter>
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>%d{yyyy-MM-dd HH:mm:ss} [%thread] %-5level %logger{50}[%L] - %msg%n</pattern>
<charset>UTF-8</charset>
</encoder>
</appender>
<!--druid慢查詢日誌輸出,沒有使用druid監控的去掉這部分以及下面的一個相關logger-->
<appender name="Druid_FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
<!-- 正在記錄的日誌文件的路徑及文件名 -->
<file>${LOG_HOME}/log_druid.log</file>
<rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
<fileNamePattern>${LOG_PATH}/${APPDIR}/info/log-druid-%d{yyyy-MM-dd}.%i.log</fileNamePattern>
<timeBasedFileNamingAndTriggeringPolicy class="ch.qos.logback.core.rolling.SizeAndTimeBasedFNATP">
<maxFileSize>2MB</maxFileSize>
</timeBasedFileNamingAndTriggeringPolicy>
</rollingPolicy>
<!-- 追加方式記錄日誌 -->
<append>true</append>
<!-- 日誌文件的格式 -->
<encoder class="ch.qos.logback.classic.encoder.PatternLayoutEncoder">
<pattern>%d{yyyy-MM-dd HH:mm:ss} %-5level %logger Line:%-3L - %msg%n</pattern>
<charset>utf-8</charset>
</encoder>
<!--過濾日誌-->
<filter class="ch.qos.logback.classic.filter.LevelFilter">
<level>ERROR</level>
</filter>
</appender>
<!--druid相關logger,additivity="false" 設置打印信息行爲不向上級傳遞-->
<logger name="com.alibaba.druid.filter.stat.StatFilter" level="ERROR" additivity="false">
<appender-ref ref="STDOUT" />
<appender-ref ref="Druid_FILE" />
</logger>
<!--<logger name="org.apache.ibatis" level="DEBUG" additivity="false">-->
<!--<appender-ref ref="STDOUT"/>-->
<!--</logger>-->
<!--logger用來配置綁定某個包或者類下的日誌輸出等級,以及使用哪一個appender來輸出日誌-->
<!--additivity配置是否向上級logger傳遞打印信息行爲,該logger的上級爲root,默認true-->
<logger name="com.ccg.hjzlive.mapper" level="DEBUG" additivity="false">
<appender-ref ref="STDOUT"/>
</logger>
<!--頂級logger-->
<root level="INFO">
<appender-ref ref="STDOUT" />
<appender-ref ref="FILE_INFO" />
<appender-ref ref="FILE_ERROR" />
</root>
</configuration>
3.Druid屬性配置以及監控配置
springboot2.0默認使用數據源是Hikari,如果想用第三方的數據源須在配置文件spring.datasource.type指出;
Hikari在性能上比druid好一些,而druid的優點就是有成套的sql監控,如果你的項目不需要監控,使用默認的就ok了
第一部分:配置文件配置:
spring:
datasource:
url: jdbc:mysql://localhost:3306/hjzlive?characterEncoding=utf8&useSSL=false&serverTimezone=Asia/Shanghai
username:
password:
type: com.alibaba.druid.pool.DruidDataSource
initialSize: 5
minIdle: 5
maxActive: 10
maxWait: 60000 #獲取連接時最大等待時間,單位毫秒
timeBetweenEvictionRunsMillis: 1800000 #配置間隔多久才進行一次檢測,檢測需要關閉的空閒連接,單位是毫秒
filters: stat,wall,slf4j #通過別名的方式配置擴展插件,常用的插件有:監控統計用的filter:stat,日誌用的filter: slf4j,防禦sql注入的filter:wall
connectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=90;druid.stat.logSlowSql=true # 通過connectProperties屬性來打開mergeSql功能;慢SQL記錄
validationQuery: select 'x' #用來檢測連接是否有效的sql,要求是一個查詢語句
testWhileIdle: true #建議配置爲true,不影響性能,並且保證安全性。如果空閒時間大於timeBetweenEvictionRunsMillis,執行validationQuery檢測連接是否有效。
testOnBorrow: false #申請連接時執行validationQuery檢測連接是否有效,做了這個配置會降低性能
testOnReturn: false #歸還連接時執行validationQuery檢測連接是否有效,做了這個配置會降低性能
poolPreparedStatements: false #是否緩存preparedStatement,也就是PSCache。PSCache對支持遊標的數據庫性能提升巨大,比如說oracle。在mysql下建議關閉
注意看一下屬性顏色不同的地方:有特殊顏色的屬性是不會自動注入的(可以自己debug驗證一下),如果你只是簡單的使用druid連接池,不要求sql監控,到這裏就可以結束了。可以把這些屬性刪了,然後再刪了上面logback-spring.xml配置文件的druid的appender和logger組件就ok了,當然你不刪也沒關係
第二部分:druid監控配置
創建一個配置類:DruidConfig,代碼如下
@Configuration
public class DruidConfig {
//該註解向bean自動注入對應的屬性,屬性在配置文件配置
@ConfigurationProperties(prefix = "spring.datasource")
@Bean
public DataSource druid(){
return new DruidDataSource();
}
//配置druid的監控
//1.配置管理後臺的servlet
@Bean
public ServletRegistrationBean statViewServlet(){
//druid監控頁面的url
ServletRegistrationBean bean = new ServletRegistrationBean(new StatViewServlet(),"/druid/*");
Map<String,String> initParams = new HashMap<>();
initParams.put("loginUsername","druid"); //登陸用戶名
initParams.put("loginPassword","123456"); //密碼
initParams.put("allow",""); //允許哪些ip
initParams.put("deny",""); //拒絕ip
bean.setInitParameters(initParams);
return bean;
}
//2.配置一個web監控的filter,監控sql
@Bean
public FilterRegistrationBean webStatFilter(){
FilterRegistrationBean bean = new FilterRegistrationBean();
bean.setFilter(new WebStatFilter());
Map<String,String> initParams = new HashMap<>();
initParams.put("exclusions","*.js,*.css,*.html,/druid/*");
bean.setInitParameters(initParams);
bean.setUrlPatterns(Arrays.asList("/*"));
return bean;
}
}
如果你配置沒問題的話,打開你的項目地址+/druid/, 就可以看到
有收穫的收藏點贊!
我的其他博客: