原创 利用Python如何將數據寫到CSV文件中

前言 我們從網上爬取數據,最後一步會考慮如何存儲數據。如果數據量不大,往往不會選擇存儲到數據庫,而是選擇存儲到文件中,例如文本文件、CSV 文件、xls 文件等。因爲文件具備攜帶方便、查閱直觀。 Python 作爲膠水語言,搞定這些當然不

原创 圖像分割(一)深入理解深度學習分割網絡Unet

U-Net: Convolutional Networks for Biomedical Image Segmentation 背景 Mask = Function(I) 1 1. 什麼是圖像分割問題呢? 簡單的來講就是給一張圖

原创 tf-faster-rcnn的訓練流程及其如何訓練自己的數據集(一)

前言: 關於faster rcnn的訓練網絡,哪怕你一直很努力,死磕代碼。就會像這圖一樣智商不夠用啊,這邊看了那邊忘。所以希望大家能體系的學習faster rcnn。因爲走了很多彎路,總結一下自己的理解。本篇關於Faster rc

原创 tf.squeeze()函數

tf.squeeze()函數用於從張量形狀中移除大小爲1的維度   squeeze( input, axis=None, name=None, squeeze_dims=None ) 給定張量輸入,此操作

原创 文本檢測和文本識別等模型(east,ctpn,yolo2,yolo3)的鏈接

文本檢測 East論文閱讀: https://blog.csdn.net/zhangwei15hh/article/details/79899300 https://blog.csdn.net/sparkexpert/article/de

原创 FOTS: Fast Oriented Text Spotting with a Unified Network-譯文

摘要 偶然場景文本定位被認爲是文獻分析社區中最難最具挑戰性的任務之一。大多數存在的方法將文本檢測和識別看作分開的任務。在本文工作中,我們提出了一個統一的端對端訓練的快速多方向文本定位網絡同時檢測和識別,在兩個任務中共享計算和視覺信

原创 model的存儲與讀取

# 本文件程序爲配合教材及學習進度漸進進行,請按照註釋分段執行 # 執行時要注意IDE的當前工作過路徑,最好每段重啓控制器一次,輸出結果更準確 # Part1: 通過tf.train.Saver類實現保存和載入神經網絡模型

原创 圖像分割(四)圖像分割評價標準及代碼

強烈建議參考如下兩篇文章 Performance measure characterization for evaluating neuroimage segmentation algorithms Metrics for ev

原创 圖像分割(三) 圖像分割結果的評估

我們在用一個算法對一幅圖像進行分割之後,總會面臨這樣一個問題,分割的結果到底好不好。用眼睛可以看出好壞,但這只是主觀的好壞,如何量化的對分割的結果進行評價呢,這是這篇文章我要討論的主題。   我查閱過很多方法,包括ROC曲線,Di

原创 SSD小記(一) SSD怎樣在特徵圖上放置anchor

一、SSD中anchor_sizes是如何得到的 default_params = SSDParams( img_shape=(300, 300), num_classes=21,

原创 圖像分割(二)分割問題常用的損失函數

(一)醫學圖像分割常用的損失函數 本文主要介紹醫學圖像中常用的損失函數,包括cross entropy, generalized dice coefiicients, focal loss 等。        一、cross e

原创 池化層(pooling)的反向傳播的實現

參考博客:https://blog.csdn.net/qq_21190081/article/details/72871704在看卷積神經網絡的時候,突然想起來池化是會改變特徵圖的尺寸的,那反向傳播是怎麼實現的呢。於是搜了一些

原创 深入理解深度學習分割網絡Unet——U-Net: Convolutional Networks for Biomedical Image Segmentation

背景 Mask = Function(I) 1 1. 什麼是圖像分割問題呢? 簡單的來講就是給一張圖像,檢測是用框出框出物體,而圖像分割分出一個物體的準確輪廓。也這樣考慮,給出一張圖像 I,這個問題就是求一個函

原创 Ubuntu 16.04下利用tf-faster-rcnn在VOC或其他數據集上訓練自己的模型

第一部分:使用tf-faster-rcnn訓練自己的數據 (1)Ubutu16.04下利用tf-faster-rcnn在VOC或者其他數據集上訓練自己的模型 https://blog.csdn.net/chenzhenyu123456/a

原创 tensorflow筆記 ---tf.nn.conv3d使用

1. 視覺角度 我們首先先通過一張圖來直觀的看看2D與3D卷積的區別: 標題 從圖p0116中(只包含一個卷積核)我們可以看出,對於:     2D convolution: 使用場景一般是單通道的數據(例如MNIST),輸出也是單通道