原创 最近鄰搜索之乘積量化(Product Quantizer)
=================================================== http://blog.csdn.net/CHIERYU/article/details/50321473 ============
原创 兩幅圖像線性拼接
1. 收藏鏈接:https://blog.csdn.net/wd1603926823/article/details/49582461一、2幅圖像拼接流程1>>>提取局部特徵,計算特徵點對應,本文使用rootSIFT計算特徵點的最近鄰,然
原创 tensorflow代價敏感因子、增加正則化項、學習率衰減
1.代價敏感: outputs, end_points = vgg.all_cnn(Xinputs, num_classes=num_cla
原创 KL距離
KL散度(Kullback-Leibler_divergence) KL-divergence,俗稱KL距離,常用來衡量兩個概率分佈的距離。 根據shannon的信息論,給定一個字符集的概率分佈,我們可以設計一種編碼,使得表示該字
原创 計算機視覺三大頂級國際會議和國外知名期刊投稿
第一次寫英文文章,2018-1-30投了個IEEE SIGNAL PROCESSING LETTERS,不知道命運如何,mark。 中國計算機學會推薦國際學術會議和期刊目錄 http://history.ccf.org.cn/si
原创 深度神經網絡-初始化+訓練-工程經驗
以下內容來源:https://blog.csdn.net/liyaohhh/article/details/77165483如果激活函數使用sigmoid和tanh,怎最好使用xavirtf.contrib.layers.xavier_i
原创 LSH系列三:
詳見1: http://lib.csdn.net/article/machinelearning/47115 <Good> 詳見2: http://blog.csdn.net/guoziqing506/article/det
原创 Tensorflow中dropout和batch normalization
直接上代碼探討: def batch_norm_layer(x, train_phase, scope_bn):##x is input-tensor, train_phase is tf.Variable(True/False)
原创 tensorflow 1.0 較舊版變動地方
from: https://www.cnblogs.com/studyDetail/p/6512270.html XLA(實驗版):初始版本的XLA,針對TensorFlow圖(graph)的專用編譯器,面向CPU和GPU。 Tensor
原创 matplotlib使用
除了自己寫的,還可以參考:http://blog.csdn.net/u010668907/article/details/51114659,3D繪圖參考:http://blog.csdn.net/Eddy_zheng/article/de
原创 ROC曲線與AUC值 (轉)
from: https://www.cnblogs.com/gatherstars/p/6084696.html ROC曲線與AUC值 本文根據以下文章整理而成,鏈接: (1)http://blog.csdn.net/ice11
原创 LSH系列概述:局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹
轉載來源:http://blog.csdn.net/icvpr/article/details/12342159 局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹 本文主要介紹一種用於海量高維
原创 cnn閱讀計劃
1. https://blog.csdn.net/whz1861/article/details/78160190 -----inception v1 2. -----inception v2
原创 圖像增強第三方Python庫imgaug學習筆記
參考博文: https://blog.csdn.net/u012897374/article/details/80142744 official website of imgaug: http://imgaug.readthedocs.i