原创 嵌入式Linux平臺部署AI神經網絡模型Inference的方案

轉載:https://www.jianshu.com/p/d4425b65c6e6 ONNX 簡述 ONNX是一種AI神經網絡模型的通用中間文件保存方法(可以理解成AI世界的XML),各種AI框架,Inference引擎,甚至Open

原创 智能算法--------------進化計算總結

1粒子羣算法2改進的粒子羣算法3遺傳算法4蟻羣算法 5量子粒子羣算法6量子粒子羣算法+Levy飛行7模擬退火算法優化計算  8SA模擬退火優化的PSO粒子羣算法9基於AC0的TSP求解10GA優化求解TSP問題視頻 11基於人羣搜索算法S

原创 BN使用方法

本文轉載:https://blog.csdn.net/m0_37987687/article/details/80241893                     https://blog.csdn.net/heiheiya/arti

原创 優化算法總結-牛頓法與擬牛頓算法-泰勒展開式

https://blog.csdn.net/zgcr654321/article/details/89674713 泰勒展開式,可以近似的將複雜的函數用簡單的函數表達,進而可以方便的進行求解 在牛頓法中泰勒展開式可以根據當前的點,求解最優

原创 顯卡驅動與cuda、cudnn之間的關係

https://blog.csdn.net/qq_27825451/article/details/89082978  概述,需要注意以下幾個問題: (1)NVIDIA的顯卡驅動程序和CUDA完全是兩個不同的概念哦!CUDA是NVIDIA

原创 java常用數據類型總結

基本數據類型 int long float double boolean char final double PI = 3.1415927; 聲明常量 double[] myList = new double[size];   創建

原创 神經神經網絡結構繪圖

https://blog.csdn.net/WZZ18191171661/article/details/87886588

原创 模型保存與使用

https://blog.csdn.net/marsjhao/article/details/72829635  一、TensorFlow模型保存和提取方法 1. TensorFlow通過tf.train.Saver類實現神經網絡模型的保

原创 智能優化算法總結

1粒子羣算法2改進的粒子羣算法3遺傳算法4蟻羣算法 5量子粒子羣算法6量子粒子羣算法+Levy飛行7模擬退火算法優化計算  8SA模擬退火優化的PSO粒子羣算法9基於AC0的TSP求解10GA優化求解TSP問題視頻 11基於人羣搜索算法S

原创 微信小遊戲開發學習記錄

微信小遊戲主要是在canvas上進行圖片的渲染,以及通過js操作圖片動態的刷新 微信小遊戲開發筆記:   特點: 快速體驗,段生命週期,轉化率高 體驗優於手機網頁 不需要下載或者註冊 展望: 替代過重的Ap和體驗差的手機網頁 快速引流,引

原创 android開發學習細節

支付寶開源android開發圖標 http://www.iconfont.cn/plus 去除頂部導航欄 <style name="AppTheme" parent="Theme.AppCompat.Light.NoActionBar"

原创 神經網絡中使用BN其測試以及模型保存方法

模型保存方法: saver = tf.train.Saver(tf.global_variables()) 下文中在cifar10數據中的模型保存以及測試: 訓練以及模型保存代碼: #!/usr/bin/env python3 #

原创 神經網絡設計各模塊設計

圖像標準化 tf.image.per_image_standardization(image)          這個操作計算(x - mean) / adjusted_stddev,其中mean是圖像中所有值的平均值,以及adjust

原创 神經網絡各子模塊設計

  平均池化層 def avgpool(x_tensor, pool_ksize, pool_strides):     return tf.nn.avg_pool(x_tensor, ksize = [1, pool_ksize[0]

原创 神經網絡訓練

在神經網絡訓練中常會出現過擬合、欠擬合、梯度消失、梯度爆炸等現象。 過擬合即爲模型訓練的效果太好,模型在訓練集上的準確率大於在測試集上的準確率。通常原因有以下幾點: (1)模型過於複雜,模型在很早在訓練集上收斂,而在測試集上準確率較低。