原创 不同梯度下降優化方法分析

隨機梯度下降 1.局部梯度的反方向不一定是函數整體下降的方向(比如隧道型曲面) 2.手動設定的學習率衰減很難根據數據自適應 3.數據有一定的稀疏性時, 希望對不同特徵採取不同的學習率 4.神經網絡訓練中梯度下降法容易困在鞍點附近   似牛

原创 GAN存在問題的數學推導

判別器損失函數   生成器損失函數       以下爲對生成器損失函數爲公式2時問題的推理: 最優判別器 其中x表示一張圖片, Pr(x)表示真實圖片中x出現的概率. Pg(x)生成圖片中x出現的概率. 最優判別器, 就是通過學

原创 C++ opencv使用中遇到的坑

數據存取 在C++中讀取cv::Mat的數據時, 如果數據不是8位單字節的, 不能使用mat.data[i]的形式讀取, 因爲data是char *型指針.  讀取需要指定數據類型, 如mat.at<float>(i). 如果使用指針,

原创 深入理解Batch Normalization

Batch Normalization層作用 在網絡隱層中Batch Normalization層一般在激活函數前, 主要起到兩個作用: 1. 通過計算均值和方差兩個參數, 避免上一層的卷積層產生的數據偏移較大, 最終落在激活函數

原创 ssd目標檢測效果

對於某在投放的app, 使用SSD分析組成元素.

原创 tf.image.sample_distorted_bounding_box 運行效果demo

原ground truth框 運行5次生成的切割方法集成到一張圖片中 import tensorflow as tf import matplotlib.pyplot as plt image_bytes = tf.gfi

原创 opencv 依賴庫 centos 環境配置

yum install libSM-1.2.2-2.el7.x86_64 --setopt=protected_multilib=false yum install libXrender-0.9.10-1.el7.x86_64 --set

原创 GAN,DCGAN,WGAN,WGAN-GP系列模型的演進原因

GAN存在的問題 1.對於生成器-log(1-D(x))形式的損失函數, D在訓練過程中不能訓練太好, 網絡難訓練.(通過加噪聲的方式, 可以得到改進) 2.對於生成器log(D(x))形式的損失函數, 模形易collapse m

原创 用top/free看內存 簡明版

free命令 先排除不重要的, swap交換分區, 就是用磁盤空間當內存. 對於服務器, 如果用磁盤做內存性能影響很大, 內存也不算貴, 節省不了多少成本, 划不來. 這裏直接棄用交換分區. Mem一行, shared不用看. tota

原创 golang 線程安全隊列 讀取函數帶超時功能

type Deque struct { sync.RWMutex notEmptyNotify chan int container *list.List } func (s *Deque) Pu

原创 AB實驗 兩類錯誤

  抽樣n個, 樣本標準差爲 n*sigma, 整體標準差爲sigma 白色和紅色分別爲A,B的 整體均值 的 分佈, 假設A爲對照組, B爲實驗組 第一類錯誤, 紅色陰影,  僞顯著,      紅陰影 / 白曲線 第二類錯誤, 藍色

原创 flask集成tensorflow問題修復

最近使用flask集成style-gan-encoder模形時, 總是報錯: ValueError: Tensor Tensor("block3_conv3/Relu:0", shape=(?, 64, 64, 256), dtype=f

原创 RP Path 樹形動規 超時算法

RP Path There are N islands connected by N-1 bridges. And for every two islands there's one and only one unique path(

原创 ncnn::Mat轉cv::Mat

轉換時注意四點: ncnn中的數據是float類型. imageDate的類型是CV_8UC3, mat.data指定的類型是char *型, 故imageDate可以用下標[]直接索引. ncnn中數據的排列格式爲(chann

原创 ReLU特點, 與其它激活函數對比

一、什麼是稀疏激活函數(ReLU) ReLU全稱是Rectified Liner Uints,其具體形式爲y=max(0,x)。 ReLU具有:1、單側抑制;2、相對寬闊的興奮邊界;3、稀疏激活性等優點。 二、爲什麼ReLU更有