Domain Separation Networks (NIPS 2016)

Bousmalis, K., Trigeorgis, G., Silberman, N., Krishnan, D., & Erhan, D. (2016). Domain separation networks. NIPS 2016.

網絡結構:

在這裏插入圖片描述
輸入圖像爲xx
對於target domain 有兩個特徵提取網絡: Ec(x),Eps(xs)E_c(x),E_p^s(x^s)
對於target domain 有兩個特徵提取網絡: Ec(x),Ept(xt)E_c(x),E_p^t(x^t)

文章做的是分類任務,除了分類器之外,framework仍然包含對圖像進行重構的decoder。輸入xx,經過encoder和decoder得到重構圖像x^\hat{x}

x^=D(Ec(x)+Ep(x))\hat{x}= D(E_c(x)+E_p(x) )

對於target domain x^=D(Ec(xt)+Ept(xt)) \hat{x}= D(E_c( x^t)+ E_p^t{(x^t)} )

對於source domain x^=D(Ec(xs)+Eps(xs)) \hat{x}= D(E_c( x^s)+ E_p^s{(x^s)} )

兩個域有一個公共的encoder,還有單獨的一個encoder。
Decoder網絡兩個域共用,通過private和shared representation兩個特徵進行重構。

損失函數

整體:

在這裏插入圖片描述

重構誤差:

在這裏插入圖片描述

分類誤差:

在這裏插入圖片描述

similarity loss :

目的是使兩個域的shared representation分佈儘可能接近。

文章提到兩個:

1). 使用 Gradient Reversal Layer (GRL)
在這裏插入圖片描述

2). Maximum Mean Discrepancy (MMD)
在這裏插入圖片描述

difference loss

文章說目的是使得shared 和private representation 兩個分佈正交:

在這裏插入圖片描述
矩陣HH 的每一行是hidden representation。

這個公式我還沒研究明白,或許哪天再瞧瞧。

總之對這篇文章我還是很霧,哪天再仔細看看。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章