原创 深度學習與計算機視覺系列(9)_串一串神經網絡之動手實現小例子

作者:寒小陽&&龍心塵 時間:2016年1月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50521072 http://blog.csdn.net/lon

原创 NLP系列(4)_樸素貝葉斯實戰與進階

作者: 寒小陽 && 龍心塵 時間:2016年2月。 出處:http://blog.csdn.net/han_xiaoyang/article/details/50629608 http://blog.csdn.net/long

原创 深度學習與計算機視覺系列(7)_神經網絡數據預處理,正則化與損失函數

作者:寒小陽 && 龍心塵 時間:2016年1月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50451460 http://blog.csdn.net/l

原创 ML學習分享系列(1)_計算廣告小窺[上]

原作:麪包包包包包包 修改:寒小陽 && 龍心塵 時間:2016年1月 出處: http://blog.csdn.net/breada/article/details/50572914 http://blog.csdn.

原创 NLP系列(3)_用樸素貝葉斯進行文本分類(下)

作者: 龍心塵 && 寒小陽 時間:2016年2月。 出處: http://blog.csdn.net/longxinchen_ml/article/details/50629110 http://blog.csdn.net/ha

原创 【視頻】超越BERT的最強中文NLP預訓練模型艾尼ERNIE官方揭祕

分章節視頻鏈接:http://abcxueyuan.cloud.baidu.com/#/course_detail?id=15076&courseId=15076 完整視頻鏈接:http://play.itdks.com/wa

原创 【視頻】技術分享:PaddleNLP工業級開源工具集介紹與核心技術剖析(百度AI開發者大會)

完整版40分鐘視頻:https://v.qq.com/x/page/s3002r9gfqh.html 完整版42頁ppt:https://pan.baidu.com/s/1uAGj_fJ2KmZWdCJFqOnPKg Pad

原创 NLP系列(1)_從破譯外星人文字淺談自然語言處理基礎

作者:龍心塵 &&寒小陽 時間:2016年1月。 出處: http://blog.csdn.net/longxinchen_ml/article/details/50543337 http://blog.csdn.net/han_

原创 深度學習與計算機視覺系列(10)_細說卷積神經網絡

作者:寒小陽 && 龍心塵 時間:2016年1月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50542880 http://blog.csdn.net/l

原创 深度學習與計算機視覺系列(8)_神經網絡訓練與注意點

作者:寒小陽&&龍心塵 時間:2016年1月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50521064 http://blog.csdn.net/lon

原创 深度學習與計算機視覺系列(5)_反向傳播與它的直觀理解

作者:寒小陽 && 龍心塵 時間:2015年12月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50321873 http://blog.csdn.net/

原创 深度學習與計算機視覺系列(6)_神經網絡結構與神經元激勵函數

作者:寒小陽 && 龍心塵 時間:2016年1月。 出處: http://blog.csdn.net/han_xiaoyang/article/details/50447834 http://blog.csdn.net/l

原创 【視頻】超越谷歌BERT的最強中文NLP預訓練模型艾尼ERNIE官方揭祕

分章節視頻鏈接:http://abcxueyuan.cloud.baidu.com/#/course_detail?id=15076&courseId=15076 完整視頻鏈接:http://play.itdks.com/wa

原创 圖解Word2vec

作者: 龍心塵 時間:2019年4月 出處:https://blog.csdn.net/longxinchen_ml/article/details/89077048 審校:龍心塵 作者:Jay Alammar 編譯:張秋玥、毅航、高

原创 深入理解BERT Transformer ,不僅僅是注意力機制

作者: 龍心塵 時間:2019年3月 出處:https://blog.csdn.net/longxinchen_ml/article/details/89058309 大數據文摘與百度NLP聯合出品 作者:Damien Sileo 審