原创 Ubuntu18.04 實現Torch7安裝而非Pytorch

首先說一下感觸,如果沒必要別裝這個東西,有毒!!! 我的電腦配置: CUDA10 + cudnn7.3。 Torch7官網上說是這樣安裝的: git clone https://github.com/torch/distro.gi

原创 pytorch Dataloader 數據集加載

爲節約內存,深度學習必須使用分流的方式加載數據 keras 使用的是fit_generator Pytorch 使用DataLoader __len__()函數可以控制數據加載的大小; 使用collate_fn得到自定義輸出:

原创 GAN原理詳解

GAN的基本原理其實非常簡單,這裏以生成圖片爲例進行說明。假設我們有兩個網絡,G(Generator)和D(Discriminator)。正如它的名字所暗示的那樣,它們的功能分別是: G是一個生成圖片的網絡,它接收一個隨機的噪

原创 Image Generation from Scene Graph

寫一點看過的論文和code的感悟 首先看一下論文的總體實現: 我覺得這個模型與傳統模型主要的兩個創新點就是Graph Convolution和Cascaded Refinement Network Graph Convolution

原创 Pytorch 卷積中的 Input Shape

先看Pytorch中的卷積 class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1

原创 深度學習生成模型-DCGAN

原理分析 DCGAN 和GAN的原理是相同的,就是DCGAN和CNN結合,用CNN更有利於圖形處理。 關於GAN的原理可以看一下這篇博客:GAN新手入門指南+keras&TensorFlow代碼詳解(WIN10) 然後我們可以具體看一

原创 巧用Keras 回調函數CallBacks

keras 回調函數官方文檔:https://keras-cn.readthedocs.io/en/latest/other/callbacks/ 主要就是包括: ModelCheckpoint:模型檢測,斷點恢復訓練 EasySt

原创 Keras TimeDistributed 詳解

keras.layers.TimeDistributed(layer) 這個封裝器將一個層應用於輸入的每個timestep。 輸入至少爲 3D,且第一個維度應該是時間所表示的維度。 考慮 32 個樣本的一個 batch, 其中每個樣

原创 concatenate two layer in keras

合併兩個layer,要求連個model的輸出shape除了最後一個合併維度外都得相同。 早期keras版本是使用keras.layer.Merge 如下所示: Merge([a, b], mode='concat', axis=1)

原创 Seq2Seq with Attention

論文: 官方實現:Neural Machine Translation with Attention 李宏毅視頻講解:Attention based model 傳統的的Seq2Seq,他的Decoder 部分輸入是:Encoder的

原创 tensorflow GradientTape

tensorflow 自動求導 官方API x = tf.constant(3.0) with tf.GradientTape() as g: g.watch(x) y = x * x dy_dx = g.gradient(y

原创 Tensor與Numpy的轉換

numpy --> tensor : 直接調用tf函數即可 tensor --> numpy : 調用.numpy()函數 import numpy as np ndarray = np.ones([3, 3]) print("T

原创 tensorflow eager execution

tensorflow 1.8 的新模式模式,相對與之前默認的graph execution模式而言簡直就是碼農們的福音,因爲使用它就可以進行調試了。 import tensorflow as tf tf.enable_eager_ex

原创 tensorflow scan()函數

上篇博客講了theano scan(),這裏主要比較他們的差別,其實這兩個函數都是用來做迭代的,其實看官網API也寫得很詳細,也不難。 官方文檔 tf.scan( fn, elems, initializer=

原创 theano.scan()用法

我可能剛看到theano 的scan()的時候大家也是一臉懵逼,這麼多參數,而且每個參數那麼複雜, 這是都啥啊? theano.scan(fn, sequences=None, outputs_info=None, non_seque