PyTorch深度學習60分鐘入門與實戰(二)Autograd:自動求導

摘自:https://github.com/bat67/Deep-Learning-with-PyTorch-A-60-Minute-Blitz-cn
嚶嚶嚶求star~,最新版也會首先更新在github上
有誤的地方拜託大家指出~

Autograd:自動求導

PyTorch中,所有神經網絡的核心是autograd包。先簡單介紹一下這個包,然後訓練我們的第一個的神經網絡。

autograd包爲張量上的所有操作提供了自動求導機制。它是一個在運行時定義(define-by-run)的框架,這意味着反向傳播是根據代碼如何運行來決定的,並且每次迭代可以是不同的.

讓我們用一些簡單的例子來看看吧。

張量

torch.Tensor是這個包的核心類。如果設置它的屬性 .requires_gradTrue,那麼它將會追蹤對於該張量的所有操作。當完成計算後可以通過調用.backward(),來自動計算所有的梯度。這個張量的所有梯度將會自動累加到.grad屬性.

要阻止一個張量被跟蹤歷史,可以調用.detach()方法將其與計算曆史分離,並阻止它未來的計算記錄被跟蹤。

爲了防止跟蹤歷史記錄(和使用內存),可以將代碼塊包裝在with torch.no_grad():中。在評估模型時特別有用,因爲模型可能具有requires_grad = True的可訓練的參數,但是我們不需要在此過程中對他們進行梯度計算。

還有一個類對於autograd的實現非常重要:Function

TensorFunction互相連接生成了一個非循環圖,它編碼了完整的計算曆史。每個張量都有一個.grad_fn屬性,它引用了一個創建了這個TensorFunction(除非這個張量是用戶手動創建的,即這個張量的grad_fnNone)。

如果需要計算導數,可以在Tensor上調用.backward()。如果Tensor是一個標量(即它包含一個元素的數據),則不需要爲backward()指定任何參數,但是如果它有更多的元素,則需要指定一個gradient參數,它是形狀匹配的張量。

import torch

創建一個張量並設置requires_grad=True用來追蹤其計算曆史

x = torch.ones(2, 2, requires_grad=True)
print(x)

輸出:

tensor([[1., 1.],
        [1., 1.]], requires_grad=True)

對這個張量做一次運算:

y = x + 2
print(y)

輸出:

tensor([[3., 3.],
        [3., 3.]], grad_fn=<AddBackward0>)

y是計算的結果,所以它有grad_fn屬性。

print(y.grad_fn)

輸出:

<AddBackward0 object at 0x7f1b248453c8>

對y進行更多操作

z = y * y * 3
out = z.mean()

print(z, out)

輸出:

tensor([[27., 27.],
        [27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward0>)

.requires_grad_(...) 原地改變了現有張量的 requires_grad 標誌。如果沒有指定的話,默認輸入的這個標誌是False

a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)

輸出:

False
True
<SumBackward0 object at 0x7f1b24845f98>

梯度

因爲out是一個標量。所以讓我們直接進行反向傳播,out.backward()out.backward(torch.tensor(1.))等價

out.backward()

輸出導數d(out)/dx

print(x.grad)

輸出:

tensor([[4.5000, 4.5000],
        [4.5000, 4.5000]])

得到都是4.5的矩陣。調用out張量 o“o”

得到

o=14izio = \frac{1}{4}\sum_i z_i

zi=3(xi+2)2z_i = 3(x_i+2)^2

zixi=1=27z_i\bigr\rvert_{x_i=1} = 27

因此,

oxi=32(xi+2)\frac{\partial o}{\partial x_i} = \frac{3}{2}(x_i+2)

所以,

oxixi=1=92=4.5\frac{\partial o}{\partial x_i}\bigr\rvert_{x_i=1} = \frac{9}{2} = 4.5

數學上,若有向量值函數 y=f(x)\vec{y}=f(\vec{x}),那麼 y\vec{y} 相對於 x\vec{x} 的梯度是一個雅可比矩陣:

J=(y1x1ymx1y1xnymxn) J=\left(\begin{array}{ccc} \frac{\partial y_{1}}{\partial x_{1}} &amp; \cdots &amp; \frac{\partial y_{m}}{\partial x_{1}}\\ \vdots &amp; \ddots &amp; \vdots\\ \frac{\partial y_{1}}{\partial x_{n}} &amp; \cdots &amp; \frac{\partial y_{m}}{\partial x_{n}} \end{array}\right)

通常來說,torch.autograd 是計算雅可比向量積的一個“引擎”。也就是說,給定任意向量 v=(v1v2vm)Tv=\left(\begin{array}{cccc} v_{1} &amp; v_{2} &amp; \cdots &amp; v_{m}\end{array}\right)^{T},計算乘積 JvJ\cdot v。如果 vv 恰好是一個標量函數 l=g(y)l=g\left(\vec{y}\right) 的導數,即 v=(ly1lym)Tv=\left(\begin{array}{ccc}\frac{\partial l}{\partial y_{1}} &amp; \cdots &amp; \frac{\partial l}{\partial y_{m}}\end{array}\right)^{T},那麼根據鏈式法則,雅可比向量積應該是 llx\vec{x} 的導數:

Jv=(y1x1ymx1y1xnymxn)(ly1lym)=(lx1lxn) J\cdot v=\left(\begin{array}{ccc} \frac{\partial y_{1}}{\partial x_{1}} &amp; \cdots &amp; \frac{\partial y_{m}}{\partial x_{1}}\\ \vdots &amp; \ddots &amp; \vdots\\ \frac{\partial y_{1}}{\partial x_{n}} &amp; \cdots &amp; \frac{\partial y_{m}}{\partial x_{n}} \end{array}\right)\left(\begin{array}{c} \frac{\partial l}{\partial y_{1}}\\ \vdots\\ \frac{\partial l}{\partial y_{m}} \end{array}\right)=\left(\begin{array}{c} \frac{\partial l}{\partial x_{1}}\\ \vdots\\ \frac{\partial l}{\partial x_{n}} \end{array}\right)

雅可比向量積的這一特性使得將外部梯度輸入到具有非標量輸出的模型中變得非常方便。

現在我們來看一個雅可比向量積的例子:

x = torch.randn(3, requires_grad=True)

y = x * 2
while y.data.norm() < 1000:
    y = y * 2

print(y)

輸出:

tensor([-278.6740,  935.4016,  439.6572], grad_fn=<MulBackward0>)

在這種情況下,y不再是標量。torch.autograd不能直接計算完整的雅可比矩陣,但是如果我們只想要雅可比向量積,只需將這個向量作爲參數傳給backward

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)

print(x.grad)

輸出:

tensor([4.0960e+02, 4.0960e+03, 4.0960e-01])

爲了防止跟蹤歷史記錄(和使用內存),可以將代碼塊包裝在with torch.no_grad():中。在評估模型時特別有用,因爲模型可能具有requires_grad = True的可訓練的參數,但是我們不需要在此過程中對他們進行梯度計算。

也可以通過將代碼塊包裝在 with torch.no_grad(): 中,來阻止autograd跟蹤設置了 .requires_grad=True 的張量的歷史記錄。

print(x.requires_grad)
print((x ** 2).requires_grad)

with torch.no_grad():
    print((x ** 2).requires_grad)

輸出:

True
True
False

後續閱讀:

autogradFunction的文檔見:https://pytorch.org/docs/autograd

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章