目標跟蹤重要概念和優秀文獻

轉載自:http://blog.sina.com.cn/s/blog_4b700c4c01017wz5.html

一、引言:在需要監控的環境裏,如何能夠判斷出進入特定區域的目標,並且能夠跟蹤目標的軌跡。分爲兩種情況:一是靜態背景下的目標跟蹤;二是動態背景下的目標跟蹤。


二、靜態背景下的目標跟蹤方法
1、單目標:目標跟蹤還可以分爲單目標的跟蹤和多目標的跟蹤。單目標的靜態背景下的目標跟蹤指的是攝像頭是固定在某一方位,其所觀察的視野也是靜止的。通常採用背景差分法,即先對背景進行建模,然後從視頻流中讀取圖像(我們稱之爲前景圖像),將前景圖像與背景圖像做差,就可以得到進入視野的目標物體。對於目標的描述,通常用目標連通區域的像素數目的多少來表達目標的大小,或者用目標區域的高寬比等。目標的位置信息可採用投影的方式來定位。
2、多目標:靜態環境下的多目標跟蹤,需要確定每個目標的特徵,位置,運動方向,速度等信息。
3、預處理:由於獲得的圖像總會有着噪聲,需要對圖像做一些預處理,如高斯平滑,均值濾波,或者進行一些灰度拉伸等圖像增強的操作。

三、動態背景下的目標跟蹤
    攝像頭在雲臺控制下的旋轉,會使得他所採集的圖像時可在變化,所以,對於整個目標跟蹤過程來說,背景是變化,目標也是在整個過程中運動的,所以跟蹤起來較有難度。
    目前課題組提出的方案是:跟蹤過程:在攝像頭不同偏角情況下取得若干背景圖片,建立背景圖片庫――>攝像頭保持固定時,取得當前幀圖片,與圖片庫中的背景圖像匹配,背景差分(灰度差分?),獲得目標――>目標特徵提取――>實時獲得當前幀圖片,採用跟蹤算法動態跟蹤目標。
    提取特徵是一個難點,課題組提出多顏色空間分析的方法。根據彩色圖像在不同的顏色空間裏表徵同一物體呈現出的同態性,可以把目標物體在不同的顏色空間裏進行分解,並將這些關鍵特徵信息進行融合,從而找出判別目標的本質特徵。
跟蹤過程中採用的各種方法說明:
1)在0-360度不同偏角時,獲得背景圖片,可進行混合高斯背景建模,建立圖片庫,以俯仰角和偏轉角不同標誌每張背景圖片,以備匹配使用;
2)背景差分獲得目標後,對差分圖像需要進行平滑、去噪等處理,去除干擾因素;
3)對目標採用多顏色空間(HSV、YUV)特徵提取,對不同顏色空間的特徵相與(AND),得到目標特徵,以更好的在當前幀圖片中找到目標;
4)實時得到的當前幀圖片,進行混合高斯建模,排除樹葉搖動等引起的背景變化;
5)跟蹤算法可採用多子塊匹配方法、camshift方法等。

四、相關理論介紹
    近幾年來,一種名爲CamShift的跟蹤算法憑藉其在實時性和魯棒性方面良好的表現,正受到越來越多的關注。現階段CamShift算法已經廣泛應用到感知用戶界面中的人臉跟蹤中,以及一些半自動的運動目標跟蹤。一方面,CamShift算法應該屬於基於區域的方法,它利用區域內的顏色信息對目標進行跟蹤;另一方面,CamShift算法卻是一種非參數技巧,它是通過聚類的方式搜尋運動目標的。
    簡單的說,CamShift算法利用目標的顏色特徵在視頻圖像中找到運動目標所在的位置和大小,在下一幀視頻圖像中,用運動目標當前的位置和大小初始化搜索窗口,重複這個過程就可以實現對目標的連續跟蹤。在每次搜尋前將搜索窗口的初始值設置爲運動目標當前的位置和大小,由於搜索窗口就在運動目標可能出現的區域附近進行搜尋,這樣就可以節省大量的搜尋時間,使CamShift算法具有了良好的實時性。同時,CamShift算法是通過顏色匹配找到運動目標,在目標運動的過程中,顏色信息變化不大,所以CamShift算法具有良好的魯棒性。由於RGB顏色空間對光照亮度變化比較敏感,爲了減少光照亮度變化對跟蹤效果的影響,CamShift 算法將圖像由RGB 顏色空間轉化到HSV 顏色空間進行後續處理。
    CamShift 的算法流程如圖3.4 所示。首先選擇初始搜索窗口,使窗口恰好包含整個跟蹤目標,然後對窗口中每個像素的H上的值採樣,從而得到目標的色彩直方圖,將該直方圖保存下來作爲目標的色彩直方圖模型。在跟蹤過程中,對視頻圖像處理區域中的每一個像素,通過查詢目標的色彩直方圖模型,可以得到該像素爲目標像素的概率,圖像處理區域之外的其他區域作爲概率爲0的區域。經上述處理,視頻圖像轉換爲目標色彩概率分佈圖,也稱爲目標顏色投影圖。爲便於顯示,將投影圖轉化爲8位的灰度投影圖,概率爲1 的像素值設爲255,概率爲0的像素值爲0,其他像素也轉換爲相應的灰度值。所以,灰度投影圖中越亮的像素表明該像素爲目標像素的可能性越大。
    圖中虛線標示的部分是CamShift算法的核心部分,主要目標是在視頻圖像中找到運動目標所在的位置,這一部分被稱爲Mean Shift算法。由於Mean Shift是CamShift的核心,所以正確理解MeanShift就成了理解CamShift算法的關鍵,下面就重點討論Mean Shift算法。

2、混合高斯模型
    背景中當樹葉在搖動時,它會反覆地覆蓋某像素點然後又離開,此像素點的值會發生劇烈變化,爲有效地提取感興趣的運動目標,應該把搖動的樹葉也看作背景。這時任何一個單峯分佈都無法描述該像素點的背景,因爲使用單峯分佈就表示己經假定像素點的背景在除了少量噪聲以外是靜止的,單模態模型無法描述複雜的背景。在現有效果較好的背景模型中有些爲像素點建立了多峯分佈模型(如混合高斯模型),有些對期望的背景圖像進行預測,這些算法的成功之處在於定義了合適的像素級穩態(Stationarity )準則,滿足此準則的像素值就認爲是背景,在運動目標檢測時予以忽略。對於特定的應用場景,要想對特定算法的弱點與優勢進行評價,必須明確這種像素級穩態準則。
    對於混亂的複雜背景,不能使用單高斯模型估計背景,考慮到背景像素值的分佈是多峯的,可以根據單模態的思想方法,用多個單模態的集合來描述複雜場景中像素點值的變化,混合高斯模型正是用多個單高斯函數來描述多模態的場景背景。

混合高斯模型的基本思想是:對每一個像素點,定義K個狀態來表示其所呈現的顏色,K值一般取3-5之間(取決於計算機內存及對算法的速度要求),K值越大,處理波動能力越強,相應所需的處理時間也就越長。K個狀態中每個狀態用一個高斯函數表示,這些狀態一部分表示背景的像素值其餘部分則表示運動前景的像素值。
 

http://hi.baidu.com/new8sun/blog/item/6e1cfe5d45e3d04afaf2c078.html


計算機視覺目標檢測跟蹤 標準測試視頻下載

 andrew31在ilovematlab論壇中分享的網址鏈接:

1. PETS2001的測試視頻

http://www.filewatcher.com/b/ftp/ftp.cs.rdg.ac.uk/pub/PETS2001.0.0.html

可以得到5個DATASET,有訓練和測試視頻:

2. 陰影檢測(Shadow Detection)測試視頻及CVPR-ATON 陰影檢測相關論文

http://cvrr.ucsd.edu/aton/shadow/

3. IBM人類視覺研究中心監視系統性能評價提供的視頻

http://www.research.ibm.com/peoplevision/performanceevaluation.html

原文:http://blog.163.com/jw_67/blog/static/136199256201039104624436/


    在視頻中獲取移動目標,這涉及到圖像分割,背景消除和陰影去除,主要思想,是去除背景,獲取前景。這裏一般把近似不動的物體默認爲背景,而運動的物體爲前景。除了採用分類器訓練以外,還有一些很常見的算法。這裏我參考一些論文和朋友總結把這些算法歸類,如果要相應論文的,可以聯繫我,希望對有用到的朋友一點幫助。

一,通過模板的圖像分割:

1.       將邊緣點聚類成線

2.       Hough變換

3.       RANSAC

二,背景消除:

1.    基於像素方法

a 幀差法(frame differencing)

b 均值-閾值方法(mean-threshold method)

c 混合高斯模型(Gaussian mixture model)

d 非參數模型(non-parametric)

2.    基於區域方法

a LBP紋理(LBP-texture)

b 共生矩陣(co-occurrence matrices)

c 協方差矩陣(covariance matrices)

d 直方圖方法(accumulated histogram)

3.    其他方法

向量分解法(eigenspace decomposition)

 

西安電子科技大學張瑞娟的一篇碩士論文“圖像配準理論及算法研究”,我收穫很大,所以我也總結一些對我有用的算法,將來便於查找應用。

我做的目標追蹤這一塊,雖然和圖像配準不是一個方向,但是前期工作都是一樣的,首先都需要物體檢測,特徵檢測和匹配。這裏我總結一些對我有用的,也希望對和我一樣研究方向的人有幫助。這裏圖像配準可以換成物體匹配的。

1,  圖像配準要素結合:特徵空間,搜索空間,搜索策略,近似性度量

2,  圖像配準方法:

2.1基於灰度信息的方法,

交叉相關(互相關)方法,相關係數度量,序貫相似檢測算法,信息理論的交換信息相似性準則

2.2基於變換域的方法

相位相關法,Walsh Transform變換

2.3基於特徵的方法

常用的圖像特徵有:特徵點(包括角點、高曲率點等)、直線段、邊緣(Robert、高斯-拉普拉斯LoG、Canny、Gabor濾波等邊緣檢測算子)或輪廓、閉合區域、特徵結構以及統計特徵如矩不變量等

注:像素灰度信息的互相關算法相比,特徵提取包含了高層信號信息,所以該類算法對光照、噪聲等的抗干擾能力強。

3,常用的空間變換模型

剛體變換(平移、旋轉與縮放的組合)、仿射變換、透射變換、投影變換、非線性變換

4,  常用的相似性測度

4.1距離測度

均方根誤差,差絕對值和誤差,蘭氏距離,Mahalanobis距離,絕對差,Hausdorff距離等

4.2角度度量法(概率測度)。

4.3 相關度量法

5,配准算法的評價標準

配準時間、配準率、算法複雜度、算法的可移植性、算法的適用性、圖像數據對算法的影響等(這裏雖然不是目標追蹤的評價標準,但是我們可以借鑑這些評價算法的標準)

 ===================================================================================

以下轉載自:http://blog.csdn.net/pp5576155/article/details/6962694

圖像跟蹤是一個不斷髮展的研究方向,新的方法不斷產生,再加上其它學科的方法的引入,因此對於圖像跟蹤算法的分類沒有確定的標準。對於所有的跟蹤算法,需要解決兩個關鍵問題:目標建模和目標定位[35]。以下根據目標建模所用的視覺特徵和目標定位所用的方法對跟蹤算法分類。
      1.據視覺特徵分類:欲實現目標的準確定位需要以描述目標的視覺特徵建立其表觀模型。具有良好可分性的視覺特徵,是實現對跟蹤目標與視場背景精確分割與提取的關鍵,因此視覺特徵的選擇是實現魯棒跟蹤前提。若所選視覺特徵具有較強可分性,即使簡單的跟蹤算法也能實現可靠跟蹤。反之不然。常用的視覺特徵分類如下:
        顏色:由於顏色特徵具有較好的抗擊平面旋轉、非剛性變形以及部分遮擋的
能力,變形目標跟蹤中表現出較強的魯棒性,因此廣泛的應用於視頻跟蹤的目標特徵選擇上。文獻[56]中的基於顏色直方圖跟蹤算法(Color Histogram),採用Mean Shift算法實現對非剛性目標的魯棒跟蹤。此算法的不足表現在目標遮擋和相鄰兩幀出現較大的目標位移時,由於Mean Shift算法搜索區域侷限於局部狀態空間,此時會出現跟蹤發散。爲解決此問題,文獻[57,58]中,由Perez等人和Nummiaro等人提出將顏色特徵作爲粒子濾波觀測模型,實現了複雜環境下(目標遮擋)的可靠跟蹤。此算法不足在於,當背景出現與目標顏色分佈相似干擾物時,易造成粒子發散,因此Birchfield等人[39]提出空間-顏色直方圖跟蹤算法,充分利用像素點之間的空間關係而不侷限於顏色分佈,改善了跟蹤性能。
       邊緣:雖然顏色特徵具有較好的抗目標形變的能力,但是缺乏對目標空間結構的描述,且對光照敏感。因此在光照變化頻繁的跟蹤視場下,常採用目標邊緣特徵。文獻[40-44]將邊緣信息作爲目標可分性特徵,從而實現可靠跟蹤。由於顏色與邊緣特徵具有互補特性,因此將兩種信息融合建立目標特徵模型的算法,近年來引起研究者廣泛關注[45-47]。上述基於邊緣特徵的跟蹤算法存在計算耗時較長以及形狀模型單一的問題,制約了跟蹤算法的實時性及可靠性。因此文獻[48-50]提出了基於邊緣方位直方圖特徵的跟蹤算法,此算法對光照變化不敏感且比單一輪廓邊緣特徵具有更豐富的信息。
      光流特徵:光流特徵通常是採用Lucak-Kande算法計算像素點光流的幅值和方向,文獻[51]爲利用光流實現人臉跟蹤實例。由於光流法運算量較大很難滿足實時性要求,並且光流法本身對光照變化和噪聲敏感,都限制了光流法的實際應用。
       小波:由於金字塔可實現在不同角度、尺度上對圖像進行描述的功能,這也是實現差分運動估計的基礎[52,53]。
       局部特徵描述子:圖像的局部區域特徵具有對光照、尺度、旋轉的不變性。局部區域特徵從局部區域內提取特徵點,並以相應的描述子對其描述。文獻[54,55]分別以局部二元模式和(SIFT)特徵實現目標跟蹤。
        空間與顏色融合:顏色特徵描述目標全局顏色分佈,屬於全局信息,雖然具有一定的抗目標形變能力,但由於缺乏對像素間空間結構的描述易受到背景中相似顏色分佈區域的干擾,文獻[56,57]將空間信息與顏色直方圖融合,作爲目標特徵取得了良好的跟蹤效果。
       特徵基(Eigen-Basis):將圖像信息從高維空間映射到低維空間,圖像在低維空間成爲一個流形,通過一定的幾何、統計工具可以提取和分析。PCA、LDA是圖像跟蹤領域構建子空間廣泛採用的方法。特徵跟蹤(Eigen-Tracking)方法[18,58-61]以Karhunen-Loeve構建表徵目標表觀的特徵基,再通過遞增SVD實現對特徵基的在線更新。文獻[62]以局部線性嵌入流形LLE將跟蹤問題映射到非線性低維流型空間去解決。
       模式分類:利用分類器將跟蹤目標從背景中分割出來是以模式分類的方法解決視頻跟蹤問題。文獻[64,65]同時強調目標與背景的重要性,通過特徵評價算法建立對目標和背景具有良好可分性的的視覺特徵實現跟蹤。Avidan[65]以支持向量機SVM離線學習得到目標與背景特徵,稱爲支持向量機跟蹤算法(SVM-Tracking)。文獻[67]利用集成學習將弱分類器(Adaboost方法訓練得到弱分類器)組合成強分類器,由此強分類器實現對視頻幀中目標與背景分類,即像素分類置信圖(Confidence Map),由分類置信圖的模式得到當前幀中目標位置,將輸出的目標位置反饋,訓練出新的強分類器以實現後續的分類。爲克服上述文獻中由於採用離線學習方法使得跟蹤算法不滿足實時性的問題,Grabner等人[68]提出了基於在線Adaboost訓練分類器的跟蹤算法。
2.依據目標定位所使用的方法分類:目標定位根據歷史信息推理當前幀中目標位置信息的過程。依據目標定位方法對跟蹤算法分類如下:
       概率跟蹤方法:概率跟蹤方法是採用Bayesian濾波理論解決狀態估計問題在視頻跟蹤領域的應用,通過預測和修正過程採用一種遞推方式實現時變狀態的估計。表徵目標位置信息的狀態量通常由位置座標、速度、尺度以及旋轉角度構成,狀態量通過狀態轉移模型向前推進即實現狀態預測,通過最新觀測值以及觀測似然模型對狀態預測置信度進行評價,從而對預測值做出修正。在模型線性(狀態轉移模型和觀測模型)、系統噪聲和觀測噪聲服從高斯分佈時,Kalman濾波能給出Bayesian濾波最優解;對於非線性Bayesian濾波,擴展Kalman(EKF)以及無味Kalman(UKF) [69,70]給出了次優解。隱馬爾科夫模型(HMM)[44]用於實現狀態空間有限、離散情況下的狀態估計。對於狀態模型和觀測模型均爲非線性且噪聲爲非高斯,同時狀態分佈呈多模態,利用Monte Carlo(MC)方法通過採樣估計目標狀態後驗分佈,取得了良好的效果,其中以PF爲代表的MC採樣方法成爲了研究熱點。
      確定性跟蹤方法:該類算法的基本思想是由目標檢測或者手動設置方式獲取目標模板,度量目標模板與備選目標位置的相識度稱爲評價函數。跟蹤的過程,即將備選目標位置與目標模板匹配的過程。以最優化方法計算評價函數最大值,使得評價函數取得最大值時的備選目標位置判斷爲是目標在當前視頻幀中的估計位置[36,56,71]。通常選擇顏色直方圖距離作爲相識度評價函數。該類算法在一定場景下能實現快速可靠的跟蹤,但是該類算法的可靠性是建立在目標模板在跟蹤過程中不發生變化的假設之上,因此當目標表觀模型改變,跟蹤結果與實際目標位置會產生較大偏離甚至失跟。針對此問題,文獻[72]提出實時更新目標表觀直方圖的方法,提高了確定性跟蹤算法的魯棒性。由於概率跟蹤方法能夠解決複雜背景下的目標狀態估計,特別是以PF爲代表的MC積分法實現對Bayesian濾波的近似已成爲跟蹤算法的主流。由於PF以一組隨機加權樣本近似Bayesian濾波,不受模型線性高斯假設的限制,PF已成爲解決非線性非高斯模型下的狀態估計問題的有力工具[38,41,42]。


[30]B.Jung and G.S.Sukhatme.A generalized region-based approach for multi-target tracking in outdoor environments.[C]In:Proceedings of IEEE International Conference on Robotics and Automation,New Orleans,LA,United States,2004,2004,2189-2195.
[31]B.Jung and G.S.Sukhatme.Detecting moving objects using a single camera on a mobile robot In an outdoor environment.[C]In:Proceedings of International Conference on Intelligent Autonomous Systems,2004,980–987.
[32]L.Mun Wai,I.Cohen and J.Soon Ki.Particle filter with analytical inference for human body tracking.[C]In:Proceedings of IEEE Workshop on Motion and VideoComputing,2002,159-165.
[33]H.Z.Ning,T.N.Tan,L.Wang,et al.People tracking based on motion model and motion constraints with automatic initialization.[J]Pattern Recognition,2004,37(7):1423-1440.
[34]T.Xiang and S.G.Gong.Beyond tracking:Modelling activity and understanding behaviour.[JInternational Journal of Computer Vision,2006,67(1):21-51.
[35]C.Shen.Robust visual tracking in image sequences.[D]The University of Adelaide,2005.
[36]D.Comaniciu,V.Ramesh and P.Meer.Kernel-based object tracking.[J]IEEE Transaction on Pattern Analysis and Machine Intelligence,2003,25(5):564-577.
[37]P.Perez,C.Hue,J.Vermaak,et al.Color-based probabilistic tracking.[C]In:Proceedings of 7th European Conference on Computer Vision,2002,661-675.
[38]K.Nummiaro,E.Koller-Meier and L.Van Gool.An adaptive color-based particle filter.[J]Image And Vision Computing,2003,21(1):99-110.
[39]S.T.Birchfield and S.Rangarajan.Spatiograms versus histograms for region-based tracking.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,United States,2005,2,1158-1163.
[40]N.Peterfreund.Robust tracking of position and velocity with Kalman snakes.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,1999,21(6):564-569.
[41]M.Isard and A.Blake.CONDENSATION-Conditional density propagation for visual
tracking.[J]International Journal of Computer Vision,1998,29(1):5-28.
[42]P.H.Li,T.W.Zhang and A.E.C.Pece.Visual contour tracking based on particle filters.[J]Image and Vision Computing,2003,21(1):111-123.
[43]J.Deutscher and I.Reid.Articulated body motion capture by stochastic search.[J]International Journal of Computer Vision,2005,61(2):185-205.
[44]Y.Chen,Y.Rui and T.S.Huang.JPDAF based HMM for real-time contour tracking.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,Kauai,Hawaii,2001,1,543-550.
45]C.Shen,A.van den Hengel and A.Dick.Probabilistic multiple cue integration for particle filter based tracking.[C]In:International Conference on Digital Image Computing:Techniques and Applications,Sydney,2003,1,399–408.
46]A.Li,Z.Jing and S.Hu.Particle filter based visual tracking with multi-cue adaptive fusion.[J] Chinese Optics Letters,2005,3(6):326-329.
47]P.Perez,J.Vermaak and A.Blake.Data fusion for visual tracking with particles.[J]Proceedings Of the IEEE,2004,92(3):495-513.
48]E.Maggio,F.Smeraldi and A.Cavallaro.Combining colour and orientation for adaptive Particle filter-based tracking.[C]In:Proceedings of British Machine Vision Conference Oxford,UK 2005.
49]B.Han,C.Yang,R.Duraiswami,et al.Bayesian filtering and integral image for visual Tracking [C]In:Proceedings of 6th International Worshop on Image Analysis for Multimedia Interactive Services Montreux,Switzerland,2005.
50]C.Yang,R.Duraiswami and L.Davis.Fast multiple object tracking via a hierarchical particle filter.[C]In:Proceedings of IEEE International Conference on Computer Vision,Beijing,China,2005,I,212-219.
51]D.DeCarlo and D.Metaxas.Optical flow constraints on deformable models with applications To face tracking.[J]International Journal of Computer Vision,2000,38(2):99-127.
52]A.D.Jepson,D.J.Fleet and T.F.El-Maraghi.Robust online appearance models for visual tracking.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(10):1296-1311.
53]P.Viola and M.J.Jones.Robust real-time face detection.[J]International Journal of Computer Vision,2004,57(2):137-154.
54]T.Ojala,M.Pietikainen and T.Maenpaa.Multiresolution gray-scale and rotation invariant Texture classification with local binary patterns.[J]IEEE Transactions on Pattern Analysis and Machine Intelligence,2002,24(7):971-987.
55]C.Wen-Yan,C.Chu-Song and H.Yi-Ping.Discriminative descriptor-based observation model For visual tracking.[C]In:Proceedings of 18th International Conference on Pattern Recognition,Hong Kong,2006,3,83-86.
56]C.Yang,R.Duraiswami and L.Davis.Efficient mean-shift tracking via a new similarity measure.[C]In:Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition,San Diego,CA,United States,2005,I,176-183.
[57]M.S.Arulampalam,S.Maskell,N.Gordon,and T.Clapp,A tutorial on particle filters for online nonlinear/non-Gaussian Bayesian tracking[J],IEEE Proceedings on Signal Processing,vol.50,no.2:174–188,2002.
[58]Djuric,P.M,Kotecha,J.H,Jianqui Zhang,Yufei Huang,Ghirmai,T,Bugallo,M.F,Miguez, J,Particle filtering[J].IEEE Signal Processing Magazine,2003Vol.20(No.5):19-38
[59]J.S.Liu and R.Chen,Sequential Monte Carlo methods for dynamic systems[J],Journal of the American Statistical Association,vol.93,no.443:1032–1044,1998.
[60]H.Bersini and F.Varela.Hints for Adaptive Problem Solving Gleaned from Immune Network.[J]In Parallel Problem Solving from Nature,H.P.Schwefel and H.M‘hlenbein(Eds.),Publisher-Springer-Verlag,1990:343–354
[61]De Castro,L.N.&Von Zuben,F.J.(Eds.).Recent Developments in Biologically Inspired Computing[M].Idear Group Inc.2004
[62]L.Booker,S.Forrest,M.Mitchell,and R.Riolo.Perspectives on Adaptation in Natural and Artificial Systems[M].Oxford University Press.2003
[63]L.N.de Castro and J.Timmis,Artificial Immune Systems:A New Computational Intelligence Approach[M],Springer 2002
[64]De CASTROLN,Von ZUBEN F J.learning and optimization using the clonal selection principle[J].IEEE Tran on Evolutionary computation,special Issue on Artificial Immune systems,2002.6.(3):239-251.
[65]R.Douc,O.Cappe,and E.Moulines,Comparison of resampling schemes for particlefiltering[C],Proc.of Image and Signal Processing and Analysis(ISPA),Sept.2005,pp.64–69.
[66]Jeroen D.Hol,Thomas B.Sch?n and Fredrik Gustafsson,On Resampling Algorithms for Particle Filters[C].Nonlinear Statistical Signal Processing Workshop,Cambridge,United Kingdom,September 2006.
[67]葉其孝,沈永歡.實用數學手冊[M],科學出版社,2006.1.
[68]張賢達,現代信號處理[M],清華大學出版社,第二版,2002年.
[69]張賢達,時間序列分析―高階統計量方法[M],清華大學出版社,1996
[70]V.M.Zolotarev.One-dimensional Stable Distributions.Amer.Math.Soc.Tkansl.of Math.Monographs[M],Vol.65.Amer.Math.Soc.Providence,R.I.(Transl.of the original1983 Russian).
[71]W.Feller.An Introduction to Probability Theory and its Applications[M].Vol.2,2nd edn. Wiley,New York,1971.
[72]G.Samorodnitsky and M.Taqqu.Stable Non-Gaussian Random Processes:Stochastic Models with Infinite Variance[M].Chapman and Hall,NewYork,London,1994.
[73]M.Shao,C.L.Nikias.Signal processing with fractional lower order moments:stable processes and their applications[C].Proceedings of the IEEE,July 1993,81(7):986-1010.
[74]J.M.Chambers,C.L.Mallows and B.W.Stuck,A Method for Simulating Stable Random Variables[J],JASA,1976,Vol.71,No.354:340-344
[75]Aleksander Weron and Rafal Weron,Computer Simulation of Levy alpha-Stable Variables and Processes[J],Lec.Notes in Physics,1995,457:379-392
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章