原创 ecnu3247(鐵路修復計劃)

題目鏈接:http://acm.ecnu.edu.cn/problem/3247/ 顯然,倍數越大最小生成樹就越大,那麼久二分答案好了。 爲了防止每次kruskal的時候都要排序二導致複雜度升高,把邊分成國內和國外兩部分,分別排序,在 k

原创 swjtu2381(Matrix)

題目鏈接:http://swjtuoj.cn/problem/2381/ 直接暴力的話,總得時間複雜度是O(T*n*q)的,TLE。 雖然有10^5次操作,但是矩陣大小隻有500*500,而且對於同一行(列)的操作,只有最後一次有效,只保

原创 調用攝像頭拍照和從相冊中選擇

1.  聲明對象和註冊權限 聲明對象 private EditText bookEdit/**編輯圖書信息的EditText*/; private ImageView bookImage/**顯示圖片的按鈕*/; private Butt

原创 swjtu2385(Maximize The Beautiful Value)

題目鏈接:http://swjtuoj.cn/problem/2385/ 設 s[i] 爲數列前綴和,最開始的beautiful value是 x,把a[i]向左移動 k 位後,beautiful value 位 x + (s[i-1]-

原创 HDU6098(Inversion)

題目鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=6098 從小到大排序,下標跟着一塊兒排,對於每一個b[i],都在A數組裏面從後向前找,碰到第一個下標不是 i 的倍數的位置,對應的值就是要找的

原创 HDU6092(Rikka with Subset)

題目鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=6092 題解看這裏:http://blog.csdn.net/qq_36306833/article/details/76926969 #in

原创 TensorFlow筆記之神經網絡優化——正則化

過擬合:神經網絡模型在訓練數據集上的準確率較高,在新的數據進行預測或分類時準確率較低, 說明模型的泛化能力差。 正則化:在損失函數中給每個參數 w 加上權重,引入模型複雜度指標,從而抑制模型噪聲, 減小過擬合。 使用正則化後,損失函數l

原创 51nod1108(距離之和最小V2)

題目鏈接:https://www.51nod.com/onlineJudge/submitDetail.html#!judgeId=306798 題目說的是“求一個點使它到這N個點的曼哈頓距離之和最小”,並不是說“在這些點裏找出一個點”,

原创 TensorFlow筆記之神經網絡優化——滑動平均

滑動平均:記錄了一段時間內模型中所有參數 w 和 b 各自的平均值。利用滑動平均可以增強模型的泛化能力。 滑動平均值(影子)計算公式: 影子 = 衰減率 * 影子 + (1 - 衰減率)*參數,其中,衰減率 = ,影子初值 = 參數初值

原创 HDU6053(Colorful Tree)

題目鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=6035 每一條路徑中顏色數的總和,就是經過每一種顏色的路徑條數的總和,那麼每一種顏色的貢獻定義爲經過這種顏色的路徑的數量。 要計算經過一種顏色

原创 HDU6055(Regular polygon)

題目鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=6055 有500個整數點的座標,問總共歐多少個正多邊形。 一個結論:若一個正多邊形的點都是整數點,那麼該正多邊形是正四邊形(具體證明見楊景欽在

原创 51nod1154(迴文串劃分)

題目鏈接:https://www.51nod.com/onlineJudge/submitDetail.html#!judgeId=307682 無從下手的時候考慮DP…… 區間DP考慮優化成線性DP…… 統計迴文串,可以枚舉中點,想兩邊

原创 TensorFlow筆記之神經網絡優化——損失函數

神經元模型:用數學公式表示爲, f 爲激活函數。神經網絡是以神經元爲基本單位構成的。 激活函數:引入非線性激活函數,提高模型的表達力。 常用的激活函數有relu、sigmoid、tanh等。 ① relu:在TensorFlow中,用

原创 TensorFlow筆記之搭建神經網絡

一、基本概念 張量:多維數組,用 “階” 表示張量的維度。 0階張量稱作標量,表示一個單獨的數; 1階張量稱作向量,表示一個一維數組 2階張量稱作矩陣,表示一個二維數組 3階及以上稱作張量,判斷張量是幾階的,就通過張量右邊的方括號

原创 TensorFlow筆記之神經網絡優化——學習率

學習率:表示了每次更新參數的幅度大小。學習率過大,會導致待優化的參數在最小值附近波動,不收斂;學習率過小,會導致待優化的參數收斂緩慢。        在訓練過程中,參數的更新相紙損失函數梯度下降的方向。參數的更新公式爲: