Mysql批量插入事務插入性能對比

Mysql批量插入事務插入性能對比。對於一些數據量較大的系統數據庫面臨的問題除了查詢效率低下,還有就是數據入庫時間長。特別像報表系統,可能每天花費在數據導入上的時間就會長達幾個小時之久。因此,優化數據庫插入性能是很有意義的。

網絡上的牛人很多,總會有一些手段可以提高insert效率,大家跟我一起分享一下吧:

1. 一條SQL語句插入多條數據。

我們常用的插入語句大都是一條一個insert,如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('0', 'userid_0', 'content_0', 0);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('1', 'userid_1', 'content_1', 1); 現在我們將它修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);

【數據對比】

下面是網上牛人提供一些測試對比數據,分別是進行單條數據的導入與轉化成一條SQL語句進行導入,分別測試1百、1千、1萬條數據記錄。通過對比,可以發現修改後的插入操作能夠提高程序的插入效率。

\

【緣由分析】

這裏第二種SQL執行效率高的主要原因是合併後日志量(MySQL的binlog和innodb的事務讓日誌)減少了,降低日誌刷盤的數據量和頻率,從而提高效率。通過合併SQL語句,同時也能減少SQL語句解析的次數,減少網絡傳輸的IO。

2. 在事務中進行插入處理。

在操作數據的時候,事務也是很常用的。現在我們把上面的插入語句修改成:

START TRANSACTION;

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('0', 'userid_0', 'content_0', 0);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('1', 'userid_1', 'content_1', 1);

...

COMMIT;

【數據對比】

這裏也提供了測試對比,分別是不使用事務與使用事務在記錄數爲1百、1千、1萬的情況。亦發現數據的插入效率提高了。

\

【緣由分析】

這是因爲進行一個INSERT操作時,mysql內部會建立一個事務,在事務內才進行真正插入處理操作。通過使用事務可以減少創建事務的消耗,所有插入都在執行後才進行提交操作。

3. 數據有序插入。

數據有序的插入是指插入記錄在主鍵上是有序排列,例如datetime是記錄的主鍵:

原始插入語句如下:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('1', 'userid_1', 'content_1', 1);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('0', 'userid_0', 'content_0', 0);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('2', 'userid_2', 'content_2',2); 修改成:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('0', 'userid_0', 'content_0', 0);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('1', 'userid_1', 'content_1', 1);

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)

VALUES ('2', 'userid_2', 'content_2',2);

【數據對比】

下面提供隨機數據與順序數據的性能對比,分別是記錄爲1百、1千、1萬、10萬、100萬。從測試結果來看,該優化方法的性能有所提高,但是提高並不是很明顯。

\

【緣由分析】

由於數據庫插入時,需要維護索引數據,無序的記錄會增大維護索引的成本。我們可以參照innodb使用的B+Tree 索引,如果每次插入記錄都在索引的最後面,索引的定位效率很高,並且對索引調整較小;如果插入的記錄在索引中間,需要B+tree進行分裂合併等處理,會消耗比較多計算資源,並且插入記錄的索引定位效率會下降,數據量較大時會有頻繁的磁盤操作。

性能綜合測試:

這裏提供了同時使用上面三種方法進行INSERT效率優化的測試。

\

從測試結果可以看到,合併數據+事務的方法在較小數據量時,性能提高是很明顯的,數據量較大時(1千萬以上),性能會急劇下降,這是由於此時數據量超過了innodb_buffer的容量,每次定位索引涉及較多的磁盤讀寫操作,性能下降較快。而使用合併數據+事務+有序數據的方式在數據量達到千萬級以上表現依舊是良好,在數據量較大時,有序數據索引定位較爲方便,不需要頻繁對磁盤進行讀寫操作,所以可以維持較高的性能。

注意事項:

SQL語句是有長度限制,在進行數據合併在同一SQL中務必不能超過SQL長度限制,通過max_allowed_packet配置可以修改,默認是1M,測試時修改爲8M。事務需要控制大小,事務太大可能會影響執行的效率。MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的數據刷到磁盤中,這時,效率會有所下降。所以比較好的做法是,在數據達到這個這個值前進行事務提交。

所以原來的代碼可以這麼改寫

$b = 14;
for($a=0;$a<100;$a++){
  if($a==0)
     $sql = "INSERT INTO `roles` (`uid`,`rid`) VALUES (".$a.",".$b.")";
  else
    $sql. = ",(".$a.",".$b.")";
}
    START TRANSACTION;
mysql_query($sql);
COMMIT;

  1. java:
  2. public static void insert() {  
  3.         // 開時時間  
  4.         Long begin = new Date().getTime();  
  5.         // sql前綴  
  6.         String prefix = "INSERT INTO tb_big_data (count, create_time, random) VALUES ";  
  7.         try {  
  8.             // 保存sql後綴  
  9.             StringBuffer suffix = new StringBuffer();  
  10.             // 設置事務爲非自動提交  
  11.             conn.setAutoCommit(false);  
  12.             // Statement st = conn.createStatement();  
  13.             // 比起st,pst會更好些  
  14.             PreparedStatement pst = conn.prepareStatement("");  
  15.             // 外層循環,總提交事務次數  
  16.             for (int i = 1; i <= 100; i++) {  
  17.                 // 第次提交步長  
  18.                 for (int j = 1; j <= 10000; j++) {  
  19.                     // 構建sql後綴  
  20.                     suffix.append("(" + j * i + ", SYSDATE(), " + i * j  
  21.                             * Math.random() + "),");  
  22.                 }  
  23.                 // 構建完整sql  
  24.                 String sql = prefix + suffix.substring(0, suffix.length() - 1);  
  25.                 // 添加執行sql  
  26.                 pst.addBatch(sql);  
  27.                 // 執行操作  
  28.                 pst.executeBatch();  
  29.                 // 提交事務  
  30.                 conn.commit();  
  31.                 // 清空上一次添加的數據  
  32.                 suffix = new StringBuffer();  
  33.             }  
  34.             // 頭等連接  
  35.             pst.close();  
  36.             conn.close();  
  37.         } catch (SQLException e) {  
  38.             e.printStackTrace();  
  39.         }  
  40.         // 結束時間  
  41.         Long end = new Date().getTime();  
  42.         // 耗時  
  43.         System.out.println("cast : " + (end - begin) / 1000 + " ms");  
  44.     }  
php:
$comlus = 'username,bonus';
$sql  = 'insert into '.$table_name.' ( '.$comlus.')'.''.' value( ';
$arr  = [
    ['張三',150],
    ['張三',50],
    ['張四',250],
    ['張四',20],
];
foreach($arr as $v){
    foreach ($v as $vv){
        $sql .= '\''.$vv.'\',';
    }
    $sql = trim($sql,',');
    $sql .= '),(';
}
$sql = trim($sql,',(');
mysqli_query($link,$sql)



發佈了0 篇原創文章 · 獲贊 11 · 訪問量 7萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章