原创 pytorch框架學習(17)——模型的保存與加載

文章目錄1. 序列化與反序列化2. 模型保存與加載的兩種方式3. 模型斷點續訓練 1. 序列化與反序列化 序列化:將內存中的每一個對象保存到硬盤當中,以二進制序列的形式存儲下來 反序列化:將硬盤中存儲的二進制數據反序列化的放到內

原创 pytorch框架學習(18)——finetune

文章目錄1. Transfer Learning & Model Finetune2. Pytorch中的Finetune 1. Transfer Learning & Model Finetune Transfer Lear

原创 pytorch框架學習(15)——正則化

文章目錄1. 正則化與偏差-方差分解2. pytorch中的L2正則項——weight decay3. Dropout 1. 正則化與偏差-方差分解 Regularization:減小方差的策略(防止過擬合) 誤差可分解爲

原创 知識圖譜學習筆記(五)——實體識別(1)

實體識別(信息抽取) 1. 信息抽取概述 信息抽取定義:從自然語言文本中抽取指定類型的實體、關係、事件等事實信息,並形成結構化數據輸出的文本處理技術。(Grishman,1997) 信息抽取的主要任務:實體識別與抽取、實體消歧、

原创 知識圖譜學習筆記(八)——事件抽取

事件抽取 1.事件抽取的任務定義 事件抽取是信息抽取中的難點問題 事件抽取依賴實體抽取和關係抽取 相較於實體抽取和關係抽取,事件抽取難度更大 實體抽取:1992年10月3日,奧巴馬,米歇爾,三一聯合基督教堂 關係抽取:夫妻

原创 Python金融大數據挖掘與分析筆記(一)——正則表達式基礎

正則表達式基礎 文章目錄正則表達式基礎findall() 函數非貪婪匹配sub()函數正則化表達式中[]的用法 findall() 函數 首先通過以下實例演示正則表達式的用法: import re content = "Today

原创 Pytorch框架學習(11)——優化器

文章目錄1. 什麼是優化器2. 學習率與動量3. torch.optim.SGD4. 優化器5. 作業 1. 什麼是優化器 pytorch的優化器:管理並更新模型中可學習參數的值,使得模型輸出更接近真實標籤 基本屬性 defa

原创 知識圖譜學習筆記(四)——知識框架學習與融合

知識框架學習與融合 1.本體 本體通過對於概念(concept)、術語(terminology)及其相互關係(relation,property)的規範化(conceptualization)描述,勾畫出某一領域的基本知識體系和描

原创 python讀取文件並替換字段

fp = open('text1.txt' 'w') # 打開你要寫入的文件text1.txt lines = open('text.txt').readlines() # 打開文件,讀入每一行 for s in lines:

原创 知識圖譜學習筆記(五)——實體識別(2)

實體識別(信息抽取) 知識圖譜學習筆記(五)——實體識別(1) 2. 信息抽取的基礎:分詞和詞性標註 2.6基於統計的分詞方法 基於統計的方法需要標註訓練語料訓練模型,可分爲生成式統計分詞和判別式統計分詞 2.6.1 生成式方法

原创 知識圖譜學習筆記(九)——知識圖譜的存儲與檢索

知識圖譜的存儲與檢索 文章目錄知識圖譜的存儲與檢索1. 概述2. 知識圖譜的存儲2.1 基於表結構的存儲2.2 基於圖結構的存儲3. 知識圖譜的檢索3.1 關係數據庫查詢:SQL語言3.2 圖數據庫查詢:SPARQL語言3.2.1

原创 Pytorch第一次作業

Pytorch第一次作業 1. 安裝anaconda,pycharm, CUDA+CuDNN(可選),虛擬環境,pytorch,並實現hello pytorch查看pytorch的版本 2. 張量與矩陣、向量、標量的關係是怎

原创 python金融大數據挖掘與分析(五)——利用pandas庫導出輿情數據

文章目錄1.彙總輿情數據評分2. 導出輿情數據評分表格 利用pandas庫將日期和評分轉爲二維數據表格,並寫入Excel工作簿 1.彙總輿情數據評分 獲取一段時間的時間序列 這裏可以通過pandas庫的date_range()函

原创 知識圖譜學習筆記(三)——知識表示方法

知識表示方法 1.概述 1.1 知識分類 陳述性知識:用於描述領域內有關概念、事實、事務的屬性和狀態等。 1.太陽從東方升起 2.一年有春夏秋冬四個季節 過程性知識:用於指出如何處理與領域相關的信息,以求得問題的解。例如: 1.

原创 pytorch框架學習(8)——nn網絡層

文章目錄1. 卷積層1.2 1d/2d/3d卷積1.3 卷積-nn.Conv2d()1.4 轉置卷積-ConvTranspose2. 池化層——Pooling Layer3. 線性層——Linear Layer4. 激活函數層——