Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Interpretable Machine Learning: Fundamental Principles and 10 Grand Challenges, Cynthia Rudin+, N/A, arXiv'21 #1017

Open
AkihikoWatanabe opened this issue Aug 24, 2023 · 0 comments

Comments

@AkihikoWatanabe
Copy link
Owner

AkihikoWatanabe commented Aug 24, 2023

URL

Affiliations

  • Cynthia Rudin, N/A
  • Chaofan Chen, N/A
  • Zhi Chen, N/A
  • Haiyang Huang, N/A
  • Lesia Semenova, N/A
  • Chudi Zhong, N/A

Abstract

  • Interpretability in machine learning (ML) is crucial for high stakesdecisions and troubleshooting. In this work, we provide fundamental principlesfor interpretable ML, and dispel common misunderstandings that dilute theimportance of this crucial topic. We also identify 10 technical challenge areasin interpretable machine learning and provide history and background on eachproblem. Some of these problems are classically important, and some are recentproblems that have arisen in the last few years. These problems are: (1)Optimizing sparse logical models such as decision trees; (2) Optimization ofscoring systems; (3) Placing constraints into generalized additive models toencourage sparsity and better interpretability; (4) Modern case-basedreasoning, including neural networks and matching for causal inference; (5)Complete supervised disentanglement of neural networks; (6) Complete or evenpartial unsupervised disentanglement of neural networks; (7) Dimensionalityreduction for data visualization; (8) Machine learning models that canincorporate physics and other generative or causal constraints; (9)Characterization of the "Rashomon set" of good models; and (10) Interpretablereinforcement learning. This survey is suitable as a starting point forstatisticians and computer scientists interested in working in interpretablemachine learning.

Translation (by gpt-3.5-turbo)

  • 機械学習(ML)における解釈可能性は、重要な意思決定やトラブルシューティングにおいて重要です。本研究では、解釈可能なMLの基本原則を提供し、この重要なトピックの重要性を希薄にする一般的な誤解を解消します。また、解釈可能な機械学習の10の技術的な課題領域を特定し、それぞれの問題についての歴史と背景を提供します。これらの問題のいくつかは古典的に重要であり、いくつかは最近数年間に発生した問題です。これらの問題は次のとおりです:(1)決定木などの疎な論理モデルの最適化、(2)スコアリングシステムの最適化、(3)疎さとより解釈可能性を促進するための一般化加法モデルへの制約の配置、(4)ニューラルネットワークや因果推論のためのマッチングを含む現代のケースベースの推論、(5)ニューラルネットワークの完全な教師あり分離、(6)ニューラルネットワークの完全または部分的な教師なし分離、(7)データ可視化のための次元削減、(8)物理学や他の生成的または因果的制約を組み込むことができる機械学習モデル、(9)良いモデルの「ラシュモンセット」の特性、および(10)解釈可能な強化学習。この調査は、解釈可能な機械学習で働きたい統計学者やコンピュータサイエンティストにとっての出発点として適しています。

Summary (by gpt-3.5-turbo)

  • 本研究では、解釈可能な機械学習(ML)の基本原則とその重要性について説明し、解釈可能なMLの10の技術的な課題を特定します。これには、疎な論理モデルの最適化、スコアリングシステムの最適化、一般化加法モデルへの制約の配置などが含まれます。また、ニューラルネットワークや因果推論のためのマッチング、データ可視化のための次元削減なども取り上げられます。この調査は、解釈可能なMLに興味のある統計学者やコンピュータサイエンティストにとっての出発点となるでしょう。
@AkihikoWatanabe AkihikoWatanabe changed the title Interpretable Machine Learning: Fundamental Principles and 10 Grand Challenges, Cynthia Rudin+, N/A, arXiv'21 Aug 24, 2023
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant