原创 ubuntu16.04安裝MATLAB R2017b步驟詳解(親測可用)

  轉載鏈接:https://blog.csdn.net/qq_32892383/article/details/79670871 下載軟件鏈接:https://bbs.feng.com/forum.php?mod=viewthread

原创 安裝Freesurfer遇到的問題

安裝步驟 http://surfer.nmr.mgh.harvard.edu/fswiki/DownloadAndInstall 若顯示無權限 須在命令前加上sudo freeview圖形顯示不成功: 提示 freeview.b

原创 1.sorts method python (9)merge_sort

歸併排序: 原理:https://www.cnblogs.com/chengxiao/p/6194356.html 這應該是我寫的最蠢的一個代碼了,不,可能以後還能寫出更蠢的。。。。冗長,只能實現2**n 次方數組排序。。。準備接受鄙視了

原创 1.sorts method python (7)counting_sort

計數排序Counting sort 原理: https://blog.csdn.net/weililansehudiefei/article/details/71941188 my stupid code: # -*- coding:

原创 1.sorts method python (6)comb_sort

梳排序原理: https://blog.csdn.net/heyuchang666/article/details/50554251 my stupid code: # -*- coding: utf-8 -*- """ Created

原创 1.sorts method python (4)bucket_sort

桶排序原理: https://blog.csdn.net/liaoshengshi/article/details/47320023 my stupid code:需要指定桶個數 # -*- coding: utf-8 -*- """

原创 1.sorts method python (5)cocktail_shaker_sort

雞尾酒排序原理:http://bubkoo.com/2014/01/15/sort-algorithm/shaker-sort/ 雙向冒泡排序 (Bidirectional Bubble Sort)、波浪排序 (Ripple Sort)、

原创 1.sorts method python (3)bubble_sort

原理: http://bubkoo.com/2014/01/12/sort-algorithm/bubble-sort/ my stupid code: # -*- coding: utf-8 -*- """ Created on We

原创 1.sorts method python (2)Bogo Sort

算法思想: https://blog.csdn.net/qq_38780163/article/details/80805545   my stupid code # -*- coding: utf-8 -*- """ Created

原创 1.sorts method python (1)Bitonic Sort

  1. 雙調排序: Bitonic Sort https://blog.csdn.net/xbinworld/article/details/76408595 複雜度O(n(logn)(logn)):https://www.cnblog

原创 linux 批量整理文件

前段日子學會了一種整理文件很容易的方法,一句話頂一小時工作量,特地記錄一下。。   1. cd +文件路徑,進入文件夾 在使用cd 時可結合tab鍵提示,兩次tab鍵顯示此路徑下所有文件 在windows 系統可以下載MobaXterm

原创 tf.nn.sparse_softmax_cross_entropy_with_logits &tf.nn.softmax_cross_entropy_with_logits

兩個函數的區別 兩個函數雖然功能類似,但是其參數labels有明顯區別。tf.nn.softmax_cross_entropy_with_logits()中的logits和labels的shape都是[batch_size, num_c

原创 tf.train.saver()

將訓練好的模型參數保存起來,以便以後進行驗證或測試。tf裏面提供模型保存的是tf.train.Saver()模塊。 模型保存,先要創建一個Saver對象:如 saver=tf.train.Saver() 在創建這個Saver對象的時候,

原创 tensorflow中的batch normalization

  1.原理 公式如下: y=γ(x-μ)/σ+β 其中x是輸入,y是輸出,μ是均值,σ是方差,γ和β是縮放(scale)、偏移(offset)係數。 一般來講,這些參數都是基於channel來做的,比如輸入x是一個16*32*32*12

原创 tf.layers.conv3d VS tf.nn.conv3d

    二者本質無區別,輸入參數的方式有區別,可以看如下的例子: import tensorflow as tf x = tf.placeholder(tf.float32,[3,5,128,128,3]) filter1 = tf