原创 深度學習-使用RNN生成詩

代碼連鏈接        這裏稍微更改了下《深度學習框架PyTorch:入門與實踐》裏的demo,去掉稍微繁瑣和多次訓練的部分,只保留了比較核心的生成連接詩和藏頭詩兩部分(比較渣太複雜了看不懂)。 目標效果: 連接詩: 機器學習書,局上

原创 深度學習-逆卷積神經網絡ConvTranspose2d

        卷積神經網絡Conv2d是對圖片進行下采樣,圖片越來越小,而逆卷積神經網絡ConvTranspose2d是對圖片進行上採樣,圖片越來越大,卷積與逆卷積是互相對應的。         首先,不管stride等於幾,卷積公式都

原创 python-numpy中axis的理解

        今天在看代碼時,發現一個小地方,就是求每行每列的最大最小元素時,感覺對軸0和1的設置有點轉不過彎來,於是寫了一小段代碼幫助理解。 import numpy as np a=np.array([[1,5,3],[4,2,6

原创 深度學習-DRGAN對抗神經網絡生成動漫頭像

動漫頭像素材,項目中新建data文件夾放進去         具體思路是,生成器是將一個噪點生成一副假圖片,然後將假圖片傳給判別器進行判斷,如果判別器判斷爲真,則代碼生成器性能很好,而判別器是從真實圖片中學習模型,對生成的假圖片進行判斷,

原创 深度學習-使用t-SNE對MNIST數據集進行分類

        我們在對數據進行降維時,比較常用的方法有LLE(局部線性嵌入),LE(拉普拉斯映射)還有t-SNE,前兩種主要考慮高維中距離相近的點在低維中還要保持距離相近,但是沒有考慮高維中距離較遠的點在低維是怎樣的情況,而t-SNE恰

原创 深度學習-詞頻統計

項目下載 項目頁面: 目標效果: 代碼: import re import pandas import jieba import numpy import warnings import matplotlib.pyplot as p

原创 論文-《Answer Them All! Toward Universal Visual Question Answering Models》重點翻譯+擴展

The projector F is modeled as a 4-layer MLP with 1024 units with swish non-linear activation functions [45]. 投影F是一個四層ML

原创 深度學習-t-SNE對S型數據降維

目標效果:   代碼: import numpy as np from sklearn.manifold import TSNE from time import time import matplotlib.pyplot as pl

原创 深度學習-深度可分離卷積詳解

        爲了計算方便,這裏先固定stride=1,padding=1,卷積核大小DK=3,這樣卷積後和之前的特徵圖大小相等,都是DF。 普通卷積:         M=3爲通道數,DF爲特徵圖大小,N=5爲卷積核個數,經過卷積特徵

原创 論文-《Answer Them All! Toward Universal Visual Question Answering Models》筆記

重點翻譯拓展 論文下載 摘要: Visual Question Answering (VQA) research is split into two camps: the first focuses on VQA datasets th

原创 python-讀取、顯示、保存圖片

目標效果: 代碼: import matplotlib.pyplot as plt # plt 用於顯示圖片 import matplotlib.image as mpimg # mpimg 用於讀取圖片 import numpy

原创 python-貪喫蛇

目標效果: 支持移動、喫食物身體加長、撞牆遊戲結束 ##############引用數據庫與函數############## from turtle import * from random import randrange ###

原创 論文-《Visual Question Answering as Reading Comprehension Hui》筆記

論文下載 摘要: Visual question answering (VQA) demands simultaneous comprehension of both the image visual content and natur

原创 深度學習-Word Embedding的詳細理解(包含one-hot編碼和cos餘弦相似度)

        這兩天在費勁的研究單詞嵌入Embedding,好不容易稍微懂了一點,趕緊記下來省的忘了。 ont-hot編碼:         一般在輸入的時候,都會將所有的單詞看作一個向量,只把當前的單詞置爲1,以下爲幾組單詞表和單詞向

原创 深度學習-Batch normalization的理解

進行多次的數據處理後,可能會導致數據分佈不均勻,不同特徵值的重要程度不同,比如:  左圖中w1特徵影響較大,w2特徵影響較小,所以再進入最中間橢圓後,w2方向幾乎不怎麼變動了,並且在橢圓的不同位置到達圓心的距離相差很大。而在右圖中,圓上