NISTEP注目科学技術 - 2022_E99

概要
2012年以降、深層学習に基づくConvolutional Neural Network (CNN)は特に画像認識分野において様々なタスクで高い性能を達成している。深層学習モデルがタスクに対して高い性能を実現可能である理由のひとつとして、大量のデータを用いたデータ駆動型アプローチにより、形式知だけではなく暗黙知をモデル化可能であることが挙げられる。しかし、高精度な認識・識別が可能な深層モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人がうかがい知ることは困難である。この深層モデルのブラックボックス性を緩和し説明性を高めるため、視覚的な説明性を向上させる技術、いわゆるExplainable AI技術の開発が進められている。
AIモデルを理解する取り組みは年々注目度を増しており、様々な判断根拠の可視化技術が提案されている。本技術を用いて、工業製品の異常検知などといった比較的人が理解しやすい対象での暗黙知の表出化に向けた取り組みはいくつか報告されている。本技術を足がかりに、人間社会に自然に溶け込むAIの研究開発が加速することが期待される。
キーワード
説明可能なAI / 判断根拠の可視化 / 深層学習
ID 2022_E99
調査回 2022
注目/兆し 注目
所属機関 大学
専門分野 情報通信
専門度
実現時期 5年以降10年未満
分析データ 推定科研費審査区分(中区分) 61 (人間情報学)
分析データ クラスタ 46 (データサイエンス/機械学習・AI)
研究段階
これまでに、画像認識タスクに関する視覚的説明の手法はいくつか提案されている。しかし、一般的な視覚的説明の手法は深層学習の注視領域を視覚化することに主眼を置いており、タスクの精度向上に全く貢献していなかった。中部大学 藤吉研究室が提案したAttention Branch Network (ABN)は、視覚的説明で得られる注視領域をAttention機構へ応用することで、視覚的説明による注視領域の可視化と精度向上を同時に実現した画期的な手法である。
可視化された注視領域をどのように理解するかについてはタスク依存であるため効果的な方法は今だ提案されていない。
インパクト
2022年調査にはこの項目はありません。
必要な要素
Explainable AI技術による深層学習モデルの説明は高精度なモデルの存在が前提である。高精度なモデルを構築するためには、大量のデータをモデルの学習に用いる必要がある。大量のデータをどのようにして効率的に収集するかについてインフラや法整備を含めて社会全体で検討する必要があると考えている。