解説 機械学習モデルの解釈性に関する最新動向

電子情報通信学会 - IEICE会誌 試し読みサイト
Vol.102 No.10 (2019/10) 目次へ

前の記事へ次の記事へ


解説

機械学習モデルの解釈性に関する最新動向

Recent Trends in Interpretability of Machine Learning Models

瀬光孝之 吉村玄太 毬山利貞 杉本和夫

瀬光孝之 正員 三菱電機株式会社情報技術総合研究所

吉村玄太 三菱電機株式会社情報技術総合研究所

毬山利貞 三菱電機株式会社情報技術総合研究所

杉本和夫 正員 三菱電機株式会社情報技術総合研究所

Takayuki SEMITSU, Kazuo SUGIMOTO, Members, Genta YOSHIMURA, and Toshisada MARIYAMA, Nonmembers (Information Technology R & D Center, Mitsubishi Electric Corporation, Kamakura-shi, 247-8501 Japan).

電子情報通信学会誌 Vol.102 No.10 pp.973-977 2019年10月

©電子情報通信学会2019

abstract

 機械学習技術は様々な製品・サービスへの応用が進んでいるが,内部の動作や推論結果の判断根拠が人には分からないことが課題となっている.機械学習技術の解釈性に関連する諸問題を,解釈性が求められる動機,また解釈性を与える手法とその評価の観点で整理し,最新動向について解説する.また,社会的に求められる性質(Desiderata)と解釈性のギャップ,評価手法のコストと妥当性のトレードオフについて説明する.

キーワード:機械学習,解釈性,公平性,安全性,エンジニアリング

1.は じ め に

 機械学習技術は画像認識など様々な分野で高い性能を発揮し,Webサービス,医療,自動運転をはじめとして様々な分野で産業応用が進んでいる技術である.世の中で広く使われるようになった理由の一つとして,データからの学習により,高精度に推論することが可能になったことが挙げられる.しかし,未知のデータに対して思い掛けない推論をしてしまう可能性があり,個々の間違えた例に対しなぜ間違えたのかを説明できないなどの性質がある.これらが機械学習技術を社会実装する中で問題となり,機械学習モデルの内部挙動(How)や推論結果の判断根拠(Why)を示す解釈性付与が求められている.しかし,一般的な解釈性と社会で求められる性質は必ずしも同義でない.解釈性の評価の妥当性と評価にかかるコストのトレードオフもこのギャップに関連している.機械学習モデルの解釈性について議論するためには,これらの違いについて理解する必要がある.

 本稿では,まず①機械学習の解釈性に関する世の中の議論を整理し,社会的に望まれる性質(Desiderata)について解説する.次に,②解釈性を与えるアプローチを分類し,それぞれの技術動向を紹介する.また,③解釈性の評価手法を解説し,評価手法のコストと妥当性のトレードオフについて説明する.これらの解説を通して,読者に機械学習モデルの解釈性の技術動向と今後の方向性に関する概観を与えることを目的とする.

 なお,本稿よりも更に詳しい内容については,機械学習モデルの解釈性やDesiderataについての解説は文献(1)を,人間の解釈についての心理的な考察については文献(2)を,解釈性の評価手法については文献(3)を参照されたい.

2.機械学習モデルの解釈性とは

2.1 機械学習モデルの解釈性


続きを読みたい方は、以下のリンクより電子情報通信学会の学会誌の購読もしくは学会に入会登録することで読めるようになります。 また、会員になると豊富な豪華特典が付いてきます。


続きを読む(PDF)   バックナンバーを購入する    入会登録

  

電子情報通信学会 - IEICE会誌はモバイルでお読みいただけます。

電子情報通信学会誌 会誌アプリのお知らせ

電子情報通信学会 - IEICE会誌アプリをダウンロード

  Google Play で手に入れよう

本サイトでは会誌記事の一部を試し読み用として提供しています。