原创 Python(測試)

裝飾器 https://www.cnblogs.com/arvin-feng/p/11108799.html

原创 小狐狸的測試理論基礎知識總結

測試的定義:通過人工或自動的手段,對被測對象進行檢測活動,目的在於是否滿足用戶需求。 測試的目的:1、發現被測對象與用戶需求的差異;2、發現並解決被測對象的缺陷;3、獲取被測對象的質量信息,爲決策提供數據依據‘’4、以最少的人力、

原创 Word2vec詞袋模型詳解

簡單理解與預備知識:https://www.jianshu.com/p/471d9bfbd72f https://zhuanlan.zhihu.com/p/26306795 數學原理:https://www.cnblogs.com

原创 LR與SVM簡述

LR與SVM相同點: 1、本質上都是線性(分類)算法; 2、都是有監督的判別模型 LR與SVM不同點 1、目標函數不同 LR的目標函數主要是最小化預測樣本分佈與實際樣本分佈的交叉熵。(邏輯/對數迴歸用極大似然函數求解,一般迴歸用求

原创 文本分類的特徵選擇方法

https://www.cnblogs.com/wangbogong/p/3251132.html  在文本挖掘與文本分類的有關問題中,常採用特徵選擇方法。原因是文本的特徵一般都是單詞(term),具有語義信息,使用特徵選擇找出的

原创 數組中出現次數超過一半的元素-Java(哈希表)

import java.util.HashMap; import java.util.Iterator; import java.util.Map; public class MajorityElement { publi

原创 分詞工具

中科院計算所NLPIR http://ictclas.nlpir.org/nlpir/ ansj分詞器 https://github.com/NLPchina/ansj_seg 哈工大的LTP https://github.com

原创 京東算法筆試-及時止損

求大佬指導問題出在哪,是超時,還是思路有問題。 q = [] for i in range(int(qnum)): q.append(input()) print(suns) def jszx(n,m,nums,k):#股票數量、

原创 LeetCode刷題代碼,GitHub網址

https://github.com/wyy-huli/Leetcode/tree/master

原创 數據預處理工作

https://blog.csdn.net/weixin_42159940/article/details/86376560 數據平滑 https://www.jianshu.com/p/cdc0c6ff61b6 https://

原创 python的輸入

對於像給定的數字輸入: 1 5 4 8 20 將其轉換爲列表的方式爲: li = list(map(int,input().split())) 首先使用split()函數將輸入根據空格轉換爲字符串的列表, 再使用map()函數將

原创 深度學習訓練中梯度消失的原因有哪些?有哪些解決方法?(美團算法工程師筆試)

梯度消失產生的主要原因有:一是使用了深層網絡,二是採用了不合適的損失函數。 (1)目前優化神經網絡的方法都是基於BP,即根據損失函數計算的誤差通過梯度反向傳播的方式,指導深度網絡權值的更新優化。其中將誤差從末層往前傳遞的過程需要鏈

原创 python裏match模塊的常用函數

python中math模塊常用的方法整理 ceil:取大於等於x的最小的整數值,如果x是一個整數,則返回x copysign:把y的正負號加到x前面,可以使用0 cos:求x的餘弦,x必須是弧度 degrees:把x從弧度轉換成角

原创 XGBoost原理概述 XGBoost和GBDT的區別

xgboost是一種集成學習算法,屬於3類常用的集成方法(bagging,boosting,stacking)中的boosting算法類別。它是一個加法模型,基模型一般選擇樹模型,但也可以選擇其它類型的模型如邏輯迴歸等。 xgbo

原创 最大似然估計與線性代數

最大似然估計 前提:樣本數據本身是服從某種概率分佈的; 問題:只有樣本數據,而不知道這個數據服從的分佈相關參數; 作用:估計分佈的一種算法; 思路:當分佈的參數爲某一個最佳值時,所有樣本數據出的聯合概率是最大的,當所有樣本數據出現