NISTEP注目科学技術 - 2020_E57
概要
XAI(Explainable AI)と呼ばれる説明可能なAI。
現在のAIは、深層学習のように非常に強力な一方、モデルがブラックボックスになってしまうという問題点がある。つまり、AIの予測結果がどのような計算過程を経て得られたものなのかわからないため、精度が高かったとしても、その予測の根拠がわからなくなってしまう。具体例として医療業界では「なぜAIがそのような診断を下したのか」を患者さんに説明できなければ、診断にAIを採用することは困難である。また、AIが間違った判定を下した場合に、なぜ間違ったのかを検証することができない。
現在のAIは、深層学習のように非常に強力な一方、モデルがブラックボックスになってしまうという問題点がある。つまり、AIの予測結果がどのような計算過程を経て得られたものなのかわからないため、精度が高かったとしても、その予測の根拠がわからなくなってしまう。具体例として医療業界では「なぜAIがそのような診断を下したのか」を患者さんに説明できなければ、診断にAIを採用することは困難である。また、AIが間違った判定を下した場合に、なぜ間違ったのかを検証することができない。
キーワード
2020年調査にはこの項目はありません。
ID | 2020_E57 |
---|---|
調査回 | 2020 |
注目/兆し |
2020 ※2020年調査にはこの項目はありません。区別のため、便宜上 「2020」 としています。 |
所属機関 | 大学 |
専門分野 | 情報通信 |
専門度 | - 2020年調査にはこの項目はありません。 |
実現時期 | 10年未満 |
分析データ 推定科研費審査区分(中区分) | 61 (人間情報学) |
分析データ クラスタ | 46 (データサイエンス/機械学習・AI) |
研究段階
2020年調査にはこの項目はありません。
インパクト
2020年調査にはこの項目はありません。
必要な要素
現状のXAIの課題として、AI(機械学習)モデルの予測・推測の計算工程を完全に明らかにするものではない。またAI(機械学習)モデルの予測・推測の根拠を完全に示すものでもない。これは現状のXAIが万能ではなく、「ブラックボックス」となっているAI(機械学習)モデルの仕組みを完全に把握し、説明している訳ではないからである。あくまで現状のXAIは、「ブラックボックス」となっているAI(機械学習)の予測・推測の根拠の一部を説明または別の解釈性の代替手法で近似している方法と認識し利用する必要があるため、さらなる発展が見込まれる。