最近剛剛在學tensorflow2,因爲自己的顯卡不很渣是mx130的,但是又想跑gpu,從官網上找了一下CUDA 發現沒有自己的顯卡型號,瞬間感覺涼涼,但是又不死心又從官網上找了一下MX130自己的相關信息,發現他支持CUDA,於是就抱着試試看的心裏安裝了cuda10.1版本結果安裝的時候可以,但是隻要import tensorflow的時候就各種報錯。於是我就試了一下cuda10.0版本結果成功了!超級開心!這裏就不詳細寫安裝步驟了,只是把一些關鍵的地方寫一下,剩下的大家上網上搜一下一般的教程就可以,都一樣。
以下是要注意的地方。
(1)MX130的驅動一定要下載最新的,否則可能不行。
(2)安裝cuda的時候一定要選擇10.0版本的,不能選10.1版本的否則不行。(特別重要,我自己親自試驗的)
cuda的網站:https://developer.nvidia.com/cuda-toolkit-archive
(3)安裝cuda的時候他會自動檢測你的系統是否符合,如果符合就進入下一步,當選擇安裝模式的時候一定要選擇自定義模式,在自定義模式下要這樣選擇:
要是沒有特別的需求不要安裝visual Studo,否則容易報錯!
(4)cudnn的選擇一定要選擇與cuda相匹配的版本
cudnn網址:https://developer.nvidia.com/rdp/cudnn-download(這裏需要註冊,隨便註冊一個就可以)
下載畫紅圈的那個版本。
(4) cudnn下載完成以後解壓,然後把文件裏的cudn文件夾改名成cudnn,然後拷貝到c盤這個路徑(如果你也是默認路徑的話會跟我一樣)C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.0複製完成後就是下圖這樣:
(5)安裝完成後注意要配置環境變量!在安裝的時候已經幫我們配置好了兩條(圖中紅圈部分是已經配置到的),我們只需要配置另外兩條並且要把他們置頂,分別要配置圖中黃色部分的內容(如果你也是默認的地址,那麼配置的地址應該跟我是相同的)
安裝完成後就可以用tensorflow2的gpu版本了!
這個是測試代碼:(這是一個矩陣計算:分別用CPU和GPU進行計算,很明顯的可以看出gpu比CPU快2600多倍)
import tensorflow as tf
import timeit
with tf.device('/cpu:0'):
cpu_a =tf.random.normal([10000,1000])
cpu_b =tf.random.normal([1000,2000])
print(cpu_a.device,cpu_b.device)
with tf.device('/gpu:0'):
gpu_a =tf.random.normal([10000,1000])
gpu_b =tf.random.normal([1000,2000])
print(gpu_a.device,gpu_b.device)
def cpu_run():
with tf.device('/cpu:0'):
c = tf.matmul(cpu_a,cpu_b)
return c
def gpu_run():
with tf.device('/gpu:0'):
c = tf.matmul(gpu_a,gpu_b)
return c
cpu_time = timeit.timeit(cpu_run, number=10)
gpu_time = timeit.timeit(gpu_run, number=10)
print('warmup: ',cpu_time,gpu_time)
cpu_time = timeit.timeit(cpu_run, number=10)
gpu_time = timeit.timeit(gpu_run, number=10)
print('run time: ',cpu_time,gpu_time)
結果圖:
希望我的博客對大家有幫助!