在Oracle數據庫中高速導出/導入

在Oracle數據庫中高速導出/導入


迄今爲止,導出/導入工具集仍是跨多個平臺轉移數據所需勞動強度最小的首選實用工具,儘管人們常常抱怨它速度太慢。導入只是將每條記錄從導出轉儲文件中讀出來,然後使用常見的 INSERT INTO 命令將其插入到目標表中,因此導入可能是個很慢的過程,這一點並不讓人感到吃驚。
進入 Oracle Data Pump,Oracle Database 10g 中的導出/導入工具包的更新更快的同類工具,它被設計來成倍地加速這個過程。

Data Pump 反映了整個導出/導入過程的徹底革新。它不是使用常見的 SQL 命令,而是應用專用 API 來以更快得多的速度加載和卸載數據。在我的測試中,我看到導出性能比在直接模式下提高了 10-15 倍,導入過程性能提高了 5 倍。此外,與使用導出實用工具不同,它還能夠只取出特定類型的對象(如過程)。

Data Pump 導出

這個新的實用工具稱爲 expdp,以和原來的導出 exp 區分開。在本例中,我們將用 Data Pump 來導出一個大表 CASES,大小約爲 3GB。Data Pump 在服務器端使用文件處理來創建和讀取文件;因此,目錄作爲位置使用。在這種情況下,我們將使用文件系統 /u02/dpdata1 來保存轉儲文件。

 

  
  create directory dpdata1 as '/u02/dpdata1';
  grant read, write on directory dpdata1 to ananda;
 

 
接下來,我們將導出數據:

 

  
  expdp ananda/abc123 tables=CASES directory=DPDATA1
  dumpfile=expCASES.dmp job_name=CASES_EXPORT
 

 

讓我們來分析該命令的各個部分。用戶 ID/口令組合、表和轉儲文件參數的意義是顯而易見的。與原來的導出不同,文件是在服務器(不是客戶端)上創建的。位置由目錄參數值 DPDATA1 指定,它指向之前創建的 /u02/dpdata1。這個進程還在目錄參數指定的位置上創建一個日誌文件(同樣在服務器上)。默認地,這個進程使用一個名稱爲 DPUMP_DIR 的目錄;因此可以創建它來代替 DPDATA1。

注意上面的參數 job_name,這是個特殊的參數,在原來的導出中沒有。所有的 Data Pump 工作都通過作業來完成。Data Pump 作業 — 與 DBMS 作業不同 — 只是服務器進程,它代表主進程處理數據。主進程(稱爲主控制進程)通過高級隊列 (AQ) 來協調這項工作;它通過在運行期內創建的一個特殊的表(稱爲主表)來實現這個目的。在我們的例子中,如果您在 expdp 運行時檢查用戶 ANANDA 的模式 ,您將注意到一個表 CASES_EXPORT 的存在(對應參數 job_name)。當 expdp 結束時,這個表被丟棄。

導出監控

當 Data Pump Export (DPE) 運行時,按 Control-C;它將阻止消息在屏幕上顯示,但不停止導出進程本身。相反,它將顯示 DPE 提示符(如下所示)。進程現在被認爲處於“交互式”模式:

Export>

這種方法允許在這個 DPE 作業上輸入幾條命令。要查看概要,在提示符下使用 STATUS 命令:

 

  
  Export> status
  Job:CASES_EXPORT
  Operation:EXPORT            
  Mode:TABLE             
  State:EXECUTING           
  Degree: 1
  Job Error Count: 0
  Dump file:/u02/dpdata1/expCASES.dmp
  bytes written = 2048
  
  Worker 1 Status:
  State:EXECUTING           
  Object Schema:DWOWNER
  Object Name:CASES
  Object Type:TABLE_EXPORT/TBL_TABLE_DATA/TABLE/TABLE_DATA
  Completed Objects: 1
  Total Objects: 1
  Completed Rows: 4687818
 

 
記住,這只是狀態顯示。導出在後臺工作。要繼續在屏幕上查看消息,從 Export> 提示符下使用命令 CONTINUE_CLIENT。

並行操作

您可以通過 PARALLEL 參數爲導出使用一個以上的線程來顯著地加速作業。每個線程創建一個單獨的轉儲文件,因此參數 dumpfile 應當擁有和並行度一樣多的項目。您可以指定通配符作爲文件名,而不是顯式地輸入各個文件名,例如:

 

  
  expdp ananda/abc123 tables=CASES directory=DPDATA1
  dumpfile=expCASES_%U.dmp parallel=4 job_name=Cases_Export
 


 

注意 dumpfile 參數擁有一個通配符 %U,它指示文件將按需要創建,格式將爲 expCASES_nn.dmp,其中 nn 從 01 開始,然後按需要向上增加。

在並行模式下,狀態屏幕將顯示四個工作進程。(在默認模式下,只有一個進程是可見的。)所有的工作進程同步取出數據,並在狀態屏幕上顯示它們的進度。

分離訪問數據文件和轉儲目錄文件系統的輸入/輸出通道是很重要的。否則,與維護 Data Pump 作業相關的開銷可能超過並行線程的效益,並因此而降低性能。並行方式只有在表的數量多於並行值並且表很大時纔是有效的。

數據庫監控

您還可以從數據庫視圖獲得關於運行的 Data Pump 作業的更多信息。監控作業的主視圖是 DBA_DATAPUMP_JOBS,它將告訴您在作業上有多少個工作進程(列 DEGREE)在工作。另一個重要的視圖是 DBA_DATAPUMP_SESSIONS,當它與上述視圖和 V$SESSION 結合時將給出主前臺進程的會話 SID。


  
  select sid, serial#
  from v$session s, dba_datapump_sessions d
  where s.saddr = d.saddr;
 

 
這條指令顯示前臺進程的會話。更多有用的信息可以從警報日誌中獲得。當進程啓動時,MCP 和工作進程在警報日誌中顯示如下:


  
  kupprdp:master process DM00 started with pid=23,
    OS id=20530 to execute -
  SYS.KUPM$MCP.MAIN('CASES_EXPORT', 'ANANDA');
  
  kupprdp:worker process DW01 started with worker
    id=1, pid=24, OS id=20532 to execute -
  SYS.KUPW$WORKER.MAIN('CASES_EXPORT', 'ANANDA');
  
  kupprdp:worker process DW03 started with worker
    id=2, pid=25, OS id=20534 to execute -
  SYS.KUPW$WORKER.MAIN('CASES_EXPORT', 'ANANDA');
 

 
它顯示爲數據泵操作啓動的會話的 PID。您可以用以下查詢找到實際的 SID:


  
  select sid, program from v$session where paddr in
  (select addr from v$process where pid in (23,24,25));
 

 
PROGRAM 列將對應警報日誌文件中的名稱顯示進程 DM (爲主進程)或 DW (爲工作進程)。如果一個工作進程使用了並行查詢,比如說 SID 23,您可以在視圖 V$PX_SESSION 中看到它,並把它找出來。它將爲您顯示從 SID 23 代表的工作進程中運行的所有並行查詢會話:


  
  select sid from v$px_session where qcsid = 23;
 

 
從視圖 V$SESSION_LONGOPS 中可以獲得其它的有用信息來預測完成作業將花費的時間。


  
  select sid, serial#, sofar, totalwork
  from v$session_longops
  where opname = 'CASES_EXPORT'
  and sofar != totalwork;
 

 
列 totalwork 顯示總工作量,該列的 sofar 數量被加和到當前的時刻 — 因而您可以用它來估計還要花多長時間。

Data Pump 導入

不過,數據導入性能是 Data Pump 真正出色的地方。要導入先前導出的數據,我們將使用


  
  impdp ananda/abc123 directory=dpdata1
    dumpfile=expCASES.dmp job_name=cases_import
 

 

 

 

導入進程的默認行爲是創建表和所有相關的對象,然後在表已存在時產生一個錯誤。如果您想把數據添加到一個現有的表中,您可以在上述命令行中使用 TABLE_EXISTS_ACTION=APPEND。

和使用 Data Pump 導入一樣,在進程中按 Control-C 將進入 Date Pump Import (DPI) 的交互模式;同樣,提示符是 Import>。

處理特定對象

您是否有過只需要從一個用戶導出特定的過程,以在一個不同的數據庫或用戶中重新創建這些過程的情況?與傳統的導出實用工具不同,Data Pump 允許您只導出特定類型的對象。例如,以下命令讓您只導出過程,而不導出其它任何東西 — 不導出表、視圖、甚至函數:

 

  
  expdp ananda/iclaim directory=DPDATA1
    dumpfile=expprocs.dmp include=PROCEDURE
 

 
要只導出一些特定的對象 — 比如說,函數 FUNC1 和過程 PROC1 — 您可以使用

 

 
  expdp ananda/iclaim directory=DPDATA1 dumpfile=expprocs.dmp
  include=PROCEDURE:/"=/'PROC1/'/",FUNCTION:/"=/'FUNC1/'/"

  
這個轉儲文件充當了源對象的一個備份。您甚至可以用它來創建 DDL 腳本,以供之後使用。一個稱爲 SQLFILE 的特殊參數允許創建 DDL 腳本文件。

 

 
  impdp ananda/iclaim directory=DPDATA1
    dumpfile=expprocs.dmp sqlfile=procs.sql

  
該指令在 DPDATA1 指定的目錄中創建一個名稱爲 procs.sql 的文件,並將對象的腳本包含在導出轉儲文件中。這種方法幫助您快速地在另一個模式中創建源對象。

利用參數 INCLUDE 允許您從轉儲文件中定義要包含或排除的對象。您可以使用子句 INCLUDE=TABLE:"LIKE 'TAB%'" 來僅導出那些名稱以 TAB 開頭的表。類似地,您可以使用結構 INCLUDE=TABLE:"NOT LIKE 'TAB%'" 來排除所有名稱以 TAB 開頭的表。作爲另一種選擇,您可以使用 EXCLUDE 參數來排除特定的對象。

通過外部表,Data Pump 還可以用來傳輸表空間;它非常強大,能夠即時地重定義並行方式,將更多的表添加到一個現有的進程中等等。
 
 
本篇文章來源於:開發學院 http://edu.codepub.com   原文鏈接:http://edu.codepub.com/2009/0715/9978.php

發佈了11 篇原創文章 · 獲贊 7 · 訪問量 23萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章