Skip to content

andy6804tw/2023-15th-ironman

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

44 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

揭開黑箱模型:探索可解釋人工智慧

第15屆iT邦幫忙鐵人賽

本系列將從 XAI 的基礎知識出發,深入探討可解釋人工智慧在機器學習和深度學習中的應用、案例和挑戰,以及未來發展方向。希望透過這個系列,幫助讀者更好地理解和應用可解釋人工智慧技術,促進可信、透明、負責任的人工智慧發展。

鐵人賽列表

文章 程式
[Day 1] 揭開模型的神秘面紗:為何XAI對機器學習如此重要? -
[Day 2] 從黑盒到透明化:XAI技術的發展之路 -
[Day 3] 機器學習中的可解釋性指標 -
[Day 4] LIME vs. SHAP:哪種XAI解釋方法更適合你? -
[Day 5] 淺談XAI與傳統機器學習的區別 -
[Day 6] 非監督學習也能做到可解釋性?探索XAI在非監督學習中的應用 Code
[Day 7] KNN與XAI:從鄰居中找出模型的決策邏輯 Code
[Day 8] 解釋線性模型:探索線性迴歸和邏輯迴歸的可解釋性 Code
[Day 9] 基於樹狀結構的XAI方法:決策樹的可解釋性 Code
[Day 10] Permutation Importance:從特徵重要性角度解釋整個模型行為 Code
[Day 11] Partial Dependence Plot:探索特徵對預測值的影響 Code
[Day 12] LIME理論:如何用局部線性近似解釋黑箱模型 -
[Day 13] LIME實作:實戰演練LIME解釋方法 Code
[Day 14] SHAP理論:解析SHAP解釋方法的核心 -
[Day 15] SHAP實作:實戰演練SHAP解釋方法 Code
[Day 16] 神經網路的可解釋性:如何理解深度學習中的黑箱模型? -
[Day 17] 解析深度神經網路:使用Deep SHAP進行模型解釋 Code
[Day 18] CNN:卷積深度神經網路的解釋方法 -
[Day 19] Perturbation-Based:如何用擾動方法解釋神經網路 Code
[Day 20] Gradient-Based:利用梯度訊息解釋神經網路 Code
[Day 21] Propagation-Based:探索反向傳播法的可解釋性 -
[Day 22] CAM-Based:如何解釋卷積神經網路 Code
[Day 23] Attention-Based:使用注意力機制解釋CNN模型 Code
[Day 24] LSTM的可解釋性:從時序資料解析人體姿態預測 Code
[Day 25] XAI在影像處理中的瑕疵檢測:解釋卷積神經網路的運作 Code
[Day 26] XAI在表格型資料的應用:解析智慧工廠中的鋼材缺陷 Code
[Day 27] XAI在NLP中的應用:以情感分析解釋語言模型 Code
[Day 28] XAI如何影響人類對技術的信任和接受程度? -
[Day 29] 對抗樣本的挑戰:如何利用XAI檢測模型的弱點? -
[Day30] XAI未來發展方向:向更可靠的機器學習模型邁進 -

回報錯誤與建議

本系列文章若有問題或是內容建議都可以來 GitHub 中的 issue 提出。歡迎大家一同貢獻為這系列文章有更好的閱讀品質。

歡迎大家訂閱我的 YouTube 頻道。

About

[揭開黑箱模型:探索可解釋人工智慧] 第15屆iT邦幫忙鐵人賽 AI & Data 組

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published