原创 任意離散點曲線求交點c++實現

已知兩條曲線上的點座標(xi,yi),求二者交點。只需對曲線上線段進行遍歷求線段交點即可,效果如下                                 下面是c++代碼實現 頭文件 CalLineCrossPt.h #inc

原创 三維離散點最優空間圓擬合及實現

已知三維空間離散點座標(xi, yi, zi),構建一個空間圓使得空間點儘可能靠近擬合的空間圓。效果如下圖 首先,所有離散點儘可能在一個平面上,平面方程可表示爲                                      

原创 opencl無法識別cuda平臺

電腦cpu爲intel品牌,gpu爲Nvidia品牌,這兩個品牌構建了各自的opencl平臺。用GPU Caps Viewer軟件查看應有兩個,如下圖    但是,軟件中只顯示了Intel平臺,沒有識別出CUDA平臺。用驅動大師把NVI

原创 二次與三次B樣條曲線c++實現

     B樣條曲線構建一條平滑曲線,接近而不通過控制點(首尾點除外)。如圖                                                            B樣條曲線從Bezier曲線演變而來,瞭解

原创 三次參數樣條曲線擬合(任意控制點)

      三次參數樣條曲線擬合,主要是爲解決三次樣條函數不能解決的問題而提出的。三次樣條函數要求x滿足單調遞增,即x序列滿足x0<x1<x2<...<xn。物理上的意義是,曲線不可以出現繞回或打圈。三次參數樣條採用參數方程表示曲線,較爲

原创 幾個圖像縮放算法的比較

前段時間由於項目的需求,需要實現圖像的縮放功能,期間查找了不少關於圖像縮放算法的資料,現把自己的心得整理一下。 由於研究生期間沒有選修過圖像處理方面的課程,所以對圖像縮放的原理可謂一竅不通,當時開始編寫代碼的時候簡直就是一頭霧水。而且

原创 cuda調用cudaMemcpyToSymbol出現cudaErrorInvalidSymbol (13)問題

cuda調用cudaMemcpyToSymbol出現cudaErrorInvalidSymbol (13)問題解決方案。 寫了一段簡單的測試代碼。 __constant__ int con_var[10]; int _tmain(int

原创 cuda 反傅里葉變換結果不對的問題

cufftExecC2C(plan, (cufftComplex *)in_vx_d, (cufftComplex *)out_vx_d, CUFFT_INVERSE);  cufft做逆傅里葉變換後需要

原创 cuda 8.0 vs2012平臺 編譯出現 cuda8.0 error C3861: “__syncthreads”: 找不到標識符

cuda 8.0  vs2012平臺 編譯出現  cuda8.0  error C3861: “__syncthreads”:  找不到標識符,解決方案。 首先保證文件屬性爲“CUAD C/C++”,其次文件必須後綴爲.cu,不可以是.c

原创 利用c++實現數值座標刻度生成,並利用GDI繪製

給定兩個數值如(3001,5020),如何做到均勻地標註刻度? 研究matlab圖形刻度會發現,在matlab中,圖像無論如何縮放,座標刻度間隔都是以1,2,5爲基數,按照10倍或者0.1倍的冪進行放大或縮小也即,刻度間隔爲: …0.1

原创 MKL在Visual Studio 2010中配置

多餘的話不說了,直接配置工程環境。 工具->選項->Intel Composer XE->Visual Fortran->Compilers Executables: C:\Program Files (x86)\Intel\C

原创 CImage類

原文出處:http://blog.sina.com.cn/s/blog_5a82024e0100c84g.html      我們知道,Visual C++的CBitmap類和靜態圖片控件的功能是比較弱的,它只能顯示出在資源中的圖

原创 CBitmapEx—免費的C++位圖操作類

原文出處:http://www.codeproject.com/KB/graphics/CBitmapEx.aspx 譯文來源:http://blog.csdn.net/clever101     簡介:    這篇文章介紹了一個叫CBi

原创 MUMPS在CentOS下的安裝

1.下載安裝包MUMPS_5.0.1.tar.gz  這是目前最新版本的安裝包。下載地址 http://mumps.enseeiht.fr/ 但下載需要提交申請,提交後隔天會發送到你郵箱裏。或者在百度雲下載 http://pan.bai