富士通研究所は2017年9月20日、人工知能(AI)の推定の過程や根拠となる文献などを説明できる新技術「説明可能なAI」を開発したと発表した。2018年度に富士通のAI技術「FUJITSU Human Centric AI Zinrai」での実用化を予定する。

 説明可能なAIは、グラフ構造のデータを学習する富士通のAI技術「Deep Tensor(ディープテンソル)」と、学術論文などのデータを蓄積したグラフデータ「ナレッジグラフ」を組み合わせ、応用したもの。例えばゲノム医療などの分野で、特定の遺伝子変異から疾患を推定するケースにおいて学術論文などの医学的な根拠を示せるようになる。

富士通研究所の人工知能研究所所長代理の岡本青史氏
[画像のクリックで拡大表示]

 「AIは推定結果の理由や根拠を説明できないという大きな課題があった」と富士通研究所の人工知能研究所所長代理の岡本青史氏は指摘する。同氏によればディープラーニング技術をはじめとしたAIが社会に普及するためには、推定結果の根拠を示すことで人がAIの推定を理解し、信頼することが重要だという。

 これまでのAIはデータを学習し未知のデータから推定結果を出すことは可能だったが、その根拠を示すことができなかったという。そのため、医師などの専門家がAIの推定結果を基に判断を下す場合、推定結果からあらためて根拠となる文献などを調べる必要があった。