原创 SPARQL簡單操作

查詢有多少三元組 https://cloud.tencent.com/developer/news/385234

原创 KR OWL

什麼是 OWL? OWL 指的是 web 本體語言 OWL 構建在 RDF 的頂端之上 OWL 用於處理 web 上的信息 OWL 被設計爲供計算機進行解釋 OWL 不是被設計爲供人類進行閱讀的 OWL 由 XML 來編寫 OWL

原创 KR RDF OWL

https://zhuanlan.zhihu.com/p/31864048 https://www.jianshu.com/p/9e2bfa9a5a06 jianshu.com/p/5a9135b6f017 數據屬性用青色表示,

原创 本體

從萬維網到語義網 我們現在熟知的萬維網,是以HTML頁面爲基本單位的,頁面的組織形式是爲了我們人類快速理解其中的知識,是面向人的。而萬維網上可用的信息,都是若結構的組織形式,如文本,音頻視頻,並不利於知識的管理,因爲知識沒有一個完

原创 SEO 優化 搜索引擎優化方式

SEO是搜索引擎優化方式,利用搜索引擎的規則提高網站在有關搜索引擎內的自然排名。 SEO是英文Search Engine Optimization的縮寫,中文翻譯爲搜索引擎優化。通俗的講,SEO是指從自然搜索結果中獲得網站流量的技

原创 情感分析

在NLP問題中,情感分析可以被歸類爲文本分類問題,這在前面提到過。主要涉及兩個問題:文本表達和文本分類。在深度學習出現之前,主流的表示方法有BOW(詞袋模型)和topic model(主題模型),分類模型主要有SVM(支持向量機)

原创 bug更改1

點贊 收藏 分享 文章舉報 丁叔叔 發佈了209 篇原創文章 · 獲贊 24 · 訪問量 1萬+ 私信 關注

原创 正則化

L1 regularization_loss=0 for param in model.parameters(): regularization_loss+=torch.sum(torch.abs(param)) classify

原创 word embedding

一 詞彙表徵(word presentation) 爲什麼要用word embeddings one-hot 可以體現不同詞,但是任意兩個之間的成績都爲0,不能體現其特殊性,如果將之嵌入到能體現特點的向量中,可以體現例如 appl

原创 可視化利器Visdom

# coding=utf-8 import time from visdom import Visdom import requests import os import numpy as np viz = Visdom(ser

原创 NLP dream 系列總結 1 詞的向量化

詞袋模型 就是類似有個集合中有很多個詞,根據來的句子中的分詞結果進行描述結果,然後生成一個向量,其實每個詞出現了幾次就是幾, 1 其中詞袋的維度和最終的句子向量的維度是一樣的 2不能體現詞前後位置 NNLM 詞向量:是利用一定維度

原创 dropout

在層之間插入即可,原來是200對200 但是中間就是單獨的一層爲 dropout 層 如上所示。 區別 torch.nn.dropout(p=dropout_prob) 表示剩餘的比例 tf.nn.dropout(keep_p

原创 KMP 算法

題目 暴力法、KMP、BM、Sunday 暴力法就是一位一位的去對應 總共要用 S*T 詞對應 KMP是在暴力方法上去做了簡化處理來減少損耗 其中包括F =NEXT函數 前綴:指的是字符串的子串從原串最前面開始的字串,如ab

原创 bathnorm

https://blog.csdn.net/liuxiao214/article/details/81037416 u seigma gama beita 四個值 在這裏 知道 16後面是 一個784 所以是batchnor

原创 二叉樹遍歷

點贊 收藏 分享 文章舉報 丁叔叔 發佈了208 篇原創文章 · 獲贊 24 · 訪問量 1萬+ 私信 關注