深度學習可解釋性學習資料彙總

一、著名的大佬課題組

1、張拳石教授的知乎

【導讀】張老師的知乎個人簡介:
I am leading a group for explainable AI. The related topics include explainable CNNs, explainable generative networks, unsupervised semanticization of pre-trained neural networks, and unsupervised/weakly-supervised learning of neural networks. I aim to end-to-end learn interpretable models and/or unsupervisedly transform the black-box knowledge representation of pre-trained neural networks into a hierarchical and semantically interpretable model.

【網址】https://www.zhihu.com/people/quanshi.zhang/posts
【來源】知乎—張拳石

二、相關的博文彙總

1、神經網絡可解釋性、深度學習新方法,2020年有哪些不可擋的研究趨勢?

【導讀】英偉達工程師 Chip Huyen 根據參加的 NeurIPS 2019會議,總結了深度學習領域關鍵的研究趨勢。

【網址】https://mp.weixin.qq.com/s/gU0IlDcuQXwqm16h64J_kA
【來源】該翻譯來自於 “AI科技評論”微信公衆號。

2、AAAI2020最新[可解釋人工智能XAI]230頁PPT從基礎理論到工業應用、實際挑戰和經驗教訓

【導讀】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 於美國紐約舉辦。AAAI2020關於可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述瞭解釋黑盒機器學習模型的術語概念以及相關方法,涵蓋基礎、工業應用、實際挑戰和經驗教訓,是構建可解釋模型的重要指南.

【網址】https://mp.weixin.qq.com/s/JVqgSCO8a6-SEHOwKSwDrQ
【原文網址】https://xaitutorial2020.github.io/
【來源】該文章來源於“專知”微信公衆號。

3、深度神經網絡可解釋性方法彙總,附Tensorflow代碼實現

【導讀】本文就來介紹幾種神經網絡的可解釋性方法,並配有能夠在Jupyter下運行的代碼連接。
【網址】https://mp.weixin.qq.com/s/x4Ie2w7PthywE-fW_zol4w
【來源】該文章來源於“新智元”微信公衆號。

4、機器學習模型可解釋性的詳盡介紹

【導讀】模型可解釋性方面的研究,在近兩年的科研會議上成爲關注熱點,因爲大家不僅僅滿足於模型的效果,更對模型效果的原因產生更多的思考,這樣的思考有助於模型和特徵的優化,更能夠幫助更好的理解模型本身和提升模型服務質量。本文對機器學習模型可解釋性相關資料彙總survey。
【網址】https://mp.weixin.qq.com/s/JEIxzuPDrbvSJjpHExaI_w
【來源】該文章來源於“騰訊技術工程”微信公衆號。

5、集大成者!可解釋人工智能(XAI)研究最新進展萬字綜述論文: 概念體系機遇和挑戰—構建負責任的人工智能

【導讀】可解釋人工智能(Explainable Artificial Intelligence)旨在於具備可爲人類所理解的功能或運作機制,擁有透明度, 是當前AI研究的熱點,是構建和諧人機協作世界必要的條件,是構建負責任人工智能的基礎。最近來自法國西班牙等8家機構12位學者共同發表了關於可解釋人工智能XAI最新進展的綜述論文《Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI》,共67頁pdf調研了402篇文獻,講解了最新可解釋人工智能的進展,集大成者,梳理了XAI的體系,並提出構建負責任人工智能的內涵,非常具有指引性。
【網址】https://mp.weixin.qq.com/s/kJW-EM20C5JEQIKNtBYVtA
【論文網址】https://arxiv.org/abs/1910.10045
【來源】該文章來源於“專知”微信公衆號。

6、麻省理工學院MIT-ICLR2020《神經網絡能推斷出什麼?》

【導讀】神經網絡已經成功地完成了許多推理任務。從經驗上看,這些任務需要專門的網絡結構,例如,圖神經網絡(GNNs)在許多這樣的任務中表現良好,而較少結構的網絡會失敗。從理論上講,儘管網絡結構具有相同的表達能力,但人們對網絡結構爲什麼以及何時比其他網絡結構更能泛化的理解是有限的。本文通過研究網絡的計算結構與相關推理過程的算法結構之間的一致性,建立了一個描述網絡能很好學習哪些推理任務的框架。我們正式定義了這種算法對齊,並推導出一個隨更好的對齊而減小的樣本複雜度界。該框架爲流行推理模型的經驗成功提供了一個解釋,並指出了它們的侷限性。例如,我們通過一個強大的算法範例——動態規劃(DP),將看似不同的推理任務,如直覺物理、可視化問題回答和最短路徑統一起來。我們證明了gnn與DP是一致的,因此可以解決這些問題。在一些推理任務中,我們的理論得到了實證結果的支持。
【網址】https://mp.weixin.qq.com/s/YTPjpB2Op0DAL745BJjggQ
【論文網址】https://arxiv.org/abs/1905.13211
【來源】該文章來源於“專知”微信公衆號。

7、谷歌可解釋人工智能白皮書,27頁pdf,Google AI Explainability Whitepaper

【導讀】近幾年,隨着人工智能的迅速發展,人工智能對各行各業也產生了深遠的影響。圍繞人工智能建立的系統已經對醫療、交通、刑事司法、金融風險管理和社會的許多其他領域產生了巨大的價值。然而,人工智能系統仍然具有很多問題,爲了保證人工智能系統的有效性和公平性,需要我們對人工智能具有深刻的理解和控制能力。所以,今天專知小編給大家帶來的是Google可解釋人工智能白皮書《AI Explainability Whitepaper》,總共27頁pdf,主要介紹谷歌的AI平臺上的AI的可解釋性。
【網址】https://mp.weixin.qq.com/s/PMhBob3BTJbkSTBc3qBfpg
【論文網址】https://go.beyond.ai/explainable-ai-whitepaper[需註冊]
【參考】Introduction to AI Explanations for AI Platform
【來源】該文章來源於“專知”微信公衆號。

8、告別AI模型黑盒子:可解釋的神經網絡研究(一)

【導讀】你是否曾被無理拒絕貸款而煩惱?你是否懷疑過自己的汽車自動駕駛的安全性?你說這種藥物能治療肺癌,爲什麼呢?種種懷疑充斥在科學研究、金融市場等領域。衆所周知,機器學習模型,如神經網絡,深度神經網絡等,有非常不錯的預測能力,但是讓人信任一個模型的結果除了有良好的精度之外,可解釋性也是一個重要的因素。本文將介紹機器學習模型可解釋性的定義、性質和方法,並在後續的文章中,着重介紹不同解釋模型的方法,力求在維持模型精度的同時,通過更好的解釋模型方法,提高模型的可解釋性,從而提高人們對模型和模型結果的信任和接受程度。
【網址】https://mp.weixin.qq.com/s/7lI56p1vTAfARMxJelhmCg
【來源】該文章來源於“索信達控股”微信公衆號。

9、【伯克利PNAS最新論文】可解釋機器學習的定義、方法和應用

【導讀】機器學習模型在學習複雜模式方面取得了巨大的成功,這些模式使機器能夠對未觀察到的數據做出預測。除了使用模型進行預測外,解釋模型所學內容的能力正受到越來越多的關注。然而,這種關注的增加導致了對可解釋性概念的相當大的混淆。特別是,目前還不清楚所提出的各種解釋方法是如何相互聯繫的,以及可以用什麼共同的概念來評價這些方法。我們的目標是通過定義機器學習環境中的可解釋性,並引入預測、描述和相關(PDR)框架來討論解釋性,從而解決這些問題。PDR框架爲評估提供了3個主要的需求:預測準確性、描述準確性和相關性,以及相對於人類受衆判斷的相關性。此外,爲了幫助管理大量的解釋方法,我們將現有的技術分爲基於模型的和特定的類別,包括稀疏性、模塊化性和可模擬性。爲了證明從業者如何使用PDR框架來評估和理解解釋,我們提供了大量的實際例子。這些例子突出了人類觀衆在討論可解釋性時常常被低估的作用。最後,基於我們的框架工作,我們討論了現有方法的侷限性和未來工作的方向。我們希望這項工作將提供一個共同的詞彙,使從業者和研究人員更容易地討論和選擇全面的解釋方法。
【網址】https://mp.weixin.qq.com/s/K4122BSk1N1mKuHR0atwYA
【論文網址】https://www.pnas.org/content/116/44/22071.short
【來源】該文章來源於“專知”微信公衆號。

10、ICCV 2019教程《面向計算機視覺的可解釋機器學習》,附280頁PPT下載

【導讀】CNN和RNN等深度模型在計算機視覺領域取得了很大的進展,但它們通常被視爲黑匣子。爲了獲得更好的精度,人們不斷加深網絡的層數,但這使得理解模型的預測變得更加困難。本文介紹ICCV 2019的面向計算機視覺的可解釋機器學習教程。
【網址】https://mp.weixin.qq.com/s/m0-GW-D02Ryx7oXsO6vdpQ
【PPT網址】https://interpretablevision.github.io

11、【哈佛大學商學院課程Fall 2019】機器學習可解釋性

【課程網址】https://interpretable-ml-class.github.io

12、【CMU卡內基梅隆大學】深度學習在計算機視覺的應用:方法,解釋,因果與公平性

【論文網址】https://pubsonline.informs.org/doi/abs/10.1287/educ.2019.0201

13、【譯】Interpretable Machine Learning(可解釋機器學習)(系列文章—目前有5篇)

【導讀】機器學習是計算機基於數據做出的改善預測或行爲的一系列模型方法。現在的基於機器學習的決策支持系統,相比於傳統的基於規則的方法有了很大的改進。儘管機器學習模型具有較大的優勢,但由於缺乏可解釋性,用戶也經常質疑其做出的決策。要提高機器學習模型的透明性,建立用戶與機器學習模型之間的信任,降低應用中存在的潛在風險,比如模型中的偏見,給出模型的解釋是非常必要的。目前機器學習在模型的可解釋性方面往往得不到足夠的重視,或者不夠完善。關於系統學習模型可解釋性方面的書籍也很少,這爲機器學習相關從業人員的入門帶來了一定的困難。

Christoph Molnar在新書《Interpretable Machine Learning》中對可解釋機器學習進行了系統的闡述。介紹了研究機器學習可解釋性的必要性,如何在學會運用模型的同時分析模型做出決策的原因。
【網址】https://zhuanlan.zhihu.com/p/63408696
【來源】知乎—Lucas

14、專知-可解釋性(系列文章-目前大概有34篇相關文章)

【導讀】廣義上的可解釋性指在我們需要了解或解決一件事情的時候,我們可以獲得我們所需要的足夠的可以理解的信息,也就是說一個人能夠持續預測模型結果的程度。按照可解釋性方法進行的過程進行劃分的話,大概可以劃分爲三個大類: 在建模之前的可解釋性方法,建立本身具備可解釋性的模型,在建模之後使用可解釋性方法對模型作出解釋。
【網址】https://www.zhuanzhi.ai/search/可解釋性

三、圖神經網絡(GNN)可解釋性
(Paper+代碼)

1、萬能的圖神經網絡解釋器 GNNExplainer

【導讀】本文由斯坦福Jure組發表在NeurIPS2019上. 一作Rex Ying也是著名的GraphSAGE的作者. 代碼和數據
【論文翻譯網址】https://blog.csdn.net/weixin_45519842/article/details/104117774
【Paper】GNNExplainer: Generating Explanations for Graph Neural Networks
【Coding】https://github.com/RexYing/gnn-model-explainer

2、Interpreting and Understanding Graph Convolutional Neural Network using Gradient-based Attribution Method

【Paper】https://arxiv.org/ftp/arxiv/papers/1903/1903.03768.pdf

3、[ICML-2019] Explainability Techniques for Graph Convolutional Networks(綜述)

【Paper】https://arxiv.org/pdf/1905.13686.pdf
【Coding】https://github.com/baldassarreFe/graph-network-explainability

4、[CVPR-2019]Explainability Methods for Graph Convolutional Neural Networks

【Paper】http://openaccess.thecvf.com/content_CVPR_2019/papers/Pope_Explainability_Methods_for_Graph_Convolutional_Neural_Networks_CVPR_2019_paper.pdf
【Coding】https://github.com/ndey96/GCNN-Explainability

5、BayesGrad: Explaining Predictions of Graph Convolutional Networks

【Paper】https://arxiv.org/abs/1807.01985
【Coding】https://github.com/pfnet-research/bayesgrad

6、Anonymous Repository for ICML LRG Workshop: On Explainability Techniques for Graph Convolutional Networks

【Workshop】https://graphreason.github.io
【Coding】https://github.com/gn-exp/gn-exp

7、[IBM] Explainability of Graph Convolutional Networks

【Coding】https://github.com/jayliner66/xGraph

8、Graph-Based Neural Networks for Explainable Image Privacy Inferring

【Paper】暫時未找到。
【Coding】https://github.com/guang-yanng/Image_Privacy

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章