AI(人工知能)に新たな潮流が生まれている。推定結果だけではなく、「なぜそう推定したのか」という根拠も示す「説明可能なAI」への関心が高まっているのだ。米国防高等研究計画局(DARPA)など世界の研究機関が開発に乗り出したほか、製品として供給する企業も出てきた。

 深層学習をはじめとする機械学習の発展によって、さまざまな現場でAI(人工知能)の活用が進んでいる。高精度な推定が可能になるなどAIの利点は多いが、一方で新たな課題も顕在化してきた。それは、推定の根拠を説明できないことである(図1)。

図1 「説明可能なAI」が必須に
高精度でも答えの根拠や改善/修正の仕方が分かりにくい人工知能(AI)は、「開発・運用に支障が出る」「高信頼性が求められる用途に活用しにくい」といった課題がある。深層学習をはじめとする機械学習のさまざまな現場への実用化が進むにつれて、このような課題が顕在化してきた。そこで、「説明可能なAI(XAI:Explainable AI)」を求める声が上がっている。
[画像のクリックで拡大表示]

 代表的な例は、ディープラーニング(深層学習)である。深層学習では、推定に大きく影響する変数(特徴量)を自動で抽出することによって、人が特徴量を設計した場合よりも高精度な推定を実現している。だが、機械が“発見"した特徴量は必ずしも人が理解できるものではないので、「なぜそう推定したのか」という根拠が人には分かりにくい。

 この課題は、何も深層学習に限ったものではない。人が特徴量などのアルゴリズムを設計する他の機械学習も、同様の課題を潜在的に抱えている。一般に、精度を高めようとすればするほどアルゴリズムもどんどん複雑になる。AIの開発者はアルゴリズムを把握していたとしても、その利用者にとっては事実上のブラックボックスになってしまうのだ。

この先は有料会員の登録が必要です。「日経エレクトロニクス」定期購読者もログインしてお読みいただけます。今なら有料会員(月額プラン)は12月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら