原创 模型訓練技巧——激活函數mish
代碼地址:https://github.com/lessw2020/mish 1. mish的公式表達和曲線 公式表達:Mish=x * tanh(ln(1+e^x)) 曲線表達,如下圖所示: Caption 2. mish
原创 Linux 高級命令彙總
1. 從一個文件夾中隨機拷貝一定數量的圖片,放到另外一個文件夾中 find img_path_one -name '*.jpg' | shuf -n1000 | xargs -i cp {} img_path_two 註釋
原创 Pascal VOC數據集轉化爲COCO數據集格式
1. 實現起來比較簡單,直接看代碼 import os from tqdm import tqdm import xml.etree.ElementTree as ET import json class_names = ['aero
原创 mmdectionv1 SSD-mobilenetv2實戰
1.版本說明,博主使用的mmdetv1. 2.註冊主幹網絡 在 mmdet/models/backbones/ 目錄下添加mobilenetv2.py文件。 文件下載鏈接:https://download.csdn.net/d
原创 Cascade Mask R-CNN實戰——訓練自己的數據集
1. 配置訓練環境,準備自己的數據集,註冊數據集 該部分請參考我的博客SOLO實戰,按照步驟來就OK。 2.修改配置文件 我的配置文件如下,僅供參考:cascade_mask_rcnn_r50_fpn_1x_yourdat
原创 SOLO實戰——用自己的數據集訓練實例分割模型
論文:https://arxiv.org/abs/1912.04488 代碼:https://github.com/WXinlong/SOLO 1.配置訓練環境 小胖墩是用conda配置的訓練環境,用一下幾行命令即可配置成功:
原创 Open3D——RGBD圖轉化爲點雲(pcd)並顯示
1. 用Open3D分別讀取RGB圖片和深度圖片 彩色圖: 深度圖: 2. 把Open3D中的RGBD圖片轉化pcd格式並儲存 3. 顯示點雲 直接看代碼: # Open3D
原创 把分割結果的mask畫到圖上
1. 獲取分割結果 2. 把分割結果畫圖片上 # --*-- coding:utf-8 -*- import cv2 import numpy as np import xml.etree.ElementTree as ET de
原创 CIFAR10數據集轉化爲圖片
CIFAR10下載:http://www.cs.toronto.edu/~kriz/cifar.html 1. 數據集介紹 該數據集共有60000張彩色圖像,這些圖像是32*32,分爲10個類,每類6000張圖。這裏面有500
原创 模型訓練技巧——CutMix
論文:https://arxiv.org/pdf/1905.04899v2.pdf 官方代碼:https://github.com/clovaai/CutMix-PyTorch 1. 論文核心 Caption
原创 模型訓練技巧——warm up
1. pytorch 中學習率的調節策略 (1)等間隔調整學習率 StepLR (2)按需調整學習率 MultiStepLR (3)指數衰減調整學習率 ExponentialLR (4)餘弦
原创 模型訓練技巧——Random Erasing
論文:https://arxiv.org/pdf/1708.04896v2.pdf 代碼:https://github.com/zhunzhong07/Random-Erasing 1. 論文核心 Caption
原创 模型訓練技巧——mixup
論文:https://arxiv.org/abs/1710.09412 代碼:https://github.com/facebookresearch/mixup-cifar10 1. 論文核心 Caption (xi,y
原创 模型訓練技巧——label smoothing
1. 原理 Caption 通俗理解:將真實標籤減去一個很小的數,然後平均分配到其他類上,實現了標籤軟化。 2. 作用 Caption (a圖):當增加ε時,目標類別與其它類別之間的理論差距減小。(b圖):
原创 由名字列表快速構建字典
直接看代碼,以voc的名字爲例 : name_list =['aeroplane', 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'ch