POI如何導出百萬級別數據

用過POI的人都知道,在POI以前的版本中並不支持大數據量的處理,如果數據量過多還會常報OOM錯誤,這時候調整JVM的配置參數也不是一個好對策(注:jdk在32位系統中支持的內存不能超過2個G,而在64位中沒有限制,但是在64位的系統中,性能並不是太好),好在POI3.8版本新出來了一個SXSSFWorkbook對象,它就是用來解決大數據量以及超大數據量的導入導出操作的,但是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。

 

這裏普及一下,在POI中使用HSSF對象時,excel 2003最多隻允許存儲65536條數據,一般用來處理較少的數據量,這時對於百萬級別數據,Excel肯定容納不了,而且在計算機性能稍低的機器上測試,就很容易導致堆溢出。而當我升級到XSSF對象時,它可以直接支持excel2007以上版本,因爲它採用ooxml格式。這時excel可以支持1048576條數據,單個sheet表就支持近104萬條數據了,雖然這時導出100萬數據能滿足要求,但使用XSSF測試後發現偶爾還是會發生堆溢出,所以也不適合百萬數據的導出。

 

 現在我們知道excel2007及以上版本可以輕鬆實現存儲百萬級別的數據,但是系統中的大量數據是如何能夠快速準確的導入到excel中這好像是個難題,對於一般的web系統,我們爲了解決成本,基本都是使用的入門級web服務器tomcat,既然我們不推薦調整JVM的大小,那我們就要針對我們的代碼來解決我們要解決的問題。在POI3.8之後新增加了一個類,SXSSFWorkbook,採用當數據加工時不是類似前面版本的對象,它可以控制excel數據佔用的內存,他通過控制在內存中的行數來實現資源管理,即當創建對象超過了設定的行數,它會自動刷新內存,將數據寫入文件,這樣導致打印時,佔用的CPU,和內存很少。但有人會說了,我用過這個類啊,他好像並不能完全解決,當數據量超過一定量後還是會內存溢出的,而且時間還很長。對你只是用了這個類,但是你並沒有針對你的需求進行相應的設計,僅僅是用了,所以接下來我要說的問題就是,如何通過SXSSFWorkbook以及相應的寫入設計來實現百萬級別的數據快速寫入。

 我先舉個例子,以前我們數據庫中存在大量的數據,我們要查詢,怎麼辦?我們在沒有經過設計的時候是這樣來處理的,先寫一個集合,然後執行jdbc,將返回的結果賦值給list,然後再返回到頁面上,但是當數據量大的時候,就會出現數據無法返回,內存溢出的情況,於是我們在有限的時間和空間下,通過分頁將數據一頁一頁的顯示出來,這樣可以避免了大數據量數據對內存的佔用,也提高了用戶的體驗,在我們要導出的百萬數據也是一個道理,內存突發性佔用,我們可以限制導出數據所佔用的內存,這裏我先建立一個list容器,list中開闢10000行的存儲空間,每次存儲10000行,用完了將內容清空,然後重複利用,這樣就可以有效控制內存,所以我們的設計思路就基本形成了,所以分頁數據導出共有以下3個步驟:

1、求數據庫中待導出數據的行數

2、根據行數求數據提取次數

3、按次數將數據寫入文件

通過以上步驟在效率和用戶體驗性上都有了很高的提高,接下來上代碼


public void exportBigDataExcel(ValueDataDto valueDataDto, String path)
			throws IOException {
	// 最重要的就是使用SXSSFWorkbook,表示流的方式進行操作
	// 在內存中保持100行,超過100行將被刷新到磁盤
	SXSSFWorkbook wb = new SXSSFWorkbook(100);
	Sheet sh = wb.createSheet(); // 建立新的sheet對象
	Row row = sh.createRow(0);   // 創建第一行對象
	// -----------定義表頭-----------
	Cell cel0 = row.createCell(0);
	cel0.setCellValue("1");
	Cell cel2 = row.createCell(1);
	cel2.setCellValue("2");
	Cell cel3 = row.createCell(2);
	cel3.setCellValue("3");
	Cell cel4 = row.createCell(3);
	// ---------------------------
	List<valuedatabean> list = new ArrayList<valuedatabean>();
	// 數據庫中存儲的數據行
	int page_size = 10000;
	// 求數據庫中待導出數據的行數
	int list_count = this.daoUtils.queryListCount(this.valueDataDao
			.queryExportSQL(valueDataDto).get("count_sql"));
	// 根據行數求數據提取次數
	int export_times = list_count % page_size > 0 ? list_count / page_size
			+ 1 : list_count / page_size;
	// 按次數將數據寫入文件
	for (int j = 0; j < export_times; j++) {
		list = this.valueDataDao.queryPageList(this.valueDataDao
				.queryExportSQL(valueDataDto).get("list_sql"), j + 1,
				page_size);
		int len = list.size() < page_size ? list.size() : page_size;
        for (int i = 0; i < len; i++) {
			Row row_value = sh.createRow(j * page_size + i + 1);
			Cell cel0_value = row_value.createCell(0);
			cel0_value.setCellValue(list.get(i).getaa());
			Cell cel2_value = row_value.createCell(1);
			cel2_value.setCellValue(list.get(i).getaa());
			Cell cel3_value = row_value.createCell(2);
			cel3_value.setCellValue(list.get(i).getaa_person());
		}
		list.clear(); // 每次存儲len行,用完了將內容清空,以便內存可重複利用
	}
	FileOutputStream fileOut = new FileOutputStream(path);
	wb.write(fileOut);
	fileOut.close();
	wb.dispose();
}

到目前已經可以實現百萬數據的導出了,但是當我們的業務數據超過200萬,300萬了呢?如何解決?

這時,直接打印數據到一個工作簿的一個工作表是實現不了的,必須拆分到多個工作表,或者多個工作簿中才能實現。因爲一個sheet最多行數爲1048576。

下面就以這種思路提供另外一種解決方案,直接上代碼(後面會附上測試數據庫,及案例需要的jar包)

public static void main(String[] args) throws Exception {
	Test3SXXFS tm = new Test3SXXFS();
	tm.jdbcex(true);
}
public void jdbcex(boolean isClose) throws InstantiationException, IllegalAccessException, 
			ClassNotFoundException, SQLException, IOException, InterruptedException {
		
	String xlsFile = "f:/poiSXXFSBigData.xlsx";		//輸出文件
	//內存中只創建100個對象,寫臨時文件,當超過100條,就將內存中不用的對象釋放。
	Workbook wb = new SXSSFWorkbook(100);			//關鍵語句
	Sheet sheet = null;		//工作表對象
	Row nRow = null;		//行對象
	Cell nCell = null;		//列對象
 
	//使用jdbc鏈接數據庫
	Class.forName("com.mysql.jdbc.Driver").newInstance();  
	String url = "jdbc:mysql://localhost:3306/bigdata?characterEncoding=UTF-8";
	String user = "root";
	String password = "123456";
	//獲取數據庫連接
	Connection conn = DriverManager.getConnection(url, user,password);   
	Statement stmt = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE);   
	String sql = "select * from hpa_normal_tissue limit 1000000";   //100萬測試數據
	ResultSet rs = stmt.executeQuery(sql);  
	
	ResultSetMetaData rsmd = rs.getMetaData();
	long  startTime = System.currentTimeMillis();	//開始時間
	System.out.println("strat execute time: " + startTime);
		
	int rowNo = 0;		//總行號
	int pageRowNo = 0;	//頁行號
		
	while(rs.next()) {
		//打印300000條後切換到下個工作表,可根據需要自行拓展,2百萬,3百萬...數據一樣操作,只要不超過1048576就可以
		if(rowNo%300000==0){
			System.out.println("Current Sheet:" + rowNo/300000);
			sheet = wb.createSheet("我的第"+(rowNo/300000)+"個工作簿");//建立新的sheet對象
			sheet = wb.getSheetAt(rowNo/300000);		//動態指定當前的工作表
			pageRowNo = 0;		//每當新建了工作表就將當前工作表的行號重置爲0
		}	
		rowNo++;
		nRow = sheet.createRow(pageRowNo++);	//新建行對象
 
		// 打印每行,每行有6列數據   rsmd.getColumnCount()==6 --- 列屬性的個數
		for(int j=0;j<rsmd.getColumnCount();j++){
			nCell = nRow.createCell(j);
			nCell.setCellValue(rs.getString(j+1));
		}
			
		if(rowNo%10000==0){
			System.out.println("row no: " + rowNo);
		}
//		Thread.sleep(1);	//休息一下,防止對CPU佔用,其實影響不大
	}
		
	long finishedTime = System.currentTimeMillis();	//處理完成時間
	System.out.println("finished execute  time: " + (finishedTime - startTime)/1000 + "m");
		
	FileOutputStream fOut = new FileOutputStream(xlsFile);
	wb.write(fOut);
	fOut.flush();		//刷新緩衝區
	fOut.close();
		
	long stopTime = System.currentTimeMillis();		//寫文件時間
	System.out.println("write xlsx file time: " + (stopTime - startTime)/1000 + "m");
		
	if(isClose){
		this.close(rs, stmt, conn);
	}
}
	
//執行關閉流的操作
private void close(ResultSet rs, Statement stmt, Connection conn ) throws SQLException{
	rs.close();   
	stmt.close();   
	conn.close(); 
}

數據庫截圖:

案例執行結果截圖:

完美!!!!

 

數據庫腳本及案例相關jar包:

http://pan.baidu.com/s/1pKXQp55

 

 

 

 

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章