判断の精度は高いが、なぜそうなったのかが分からない――。こんなAIの「ブラックボックス問題」を解決するための技術開発が進んでいる。米IBMや富士通が相次ぎ新技術を発表、製品化を急ぐ。

 AI(人工知能)による処理結果の導出根拠や判断経緯を人間にも分かる形で示す技術開発が相次いでいる。ディープラーニング(深層学習)をはじめとする技術が発展してAIの実用化が進む一方で、AIが下した判断の過程が不透明であることが適用分野を広げるうえでのハードルになっていた。

図 「説明可能なAI」の概要
[画像のクリックで拡大表示]

 各社が開発を目指す技術は「説明可能なAI(Explainable AI、XAI)」と呼ばれる。米IBMは2018年9月19日(米国時間)、AIの推定結果にどの学習データが影響したのかを可視化するクラウドサービスの提供を始めた。富士通も深層学習に基づく推定結果を人間に分かるよう説明する技術を開発中で、2019年3月までに同社のAI製品群「Zinrai」の関連サービスとして製品化する。電通国際情報サービスは2018年6月、米新興企業シムマシーンズが開発したXAIシステムを発売した。

AI以外の技術を組み合わせる

 富士通とIBMは深層学習をはじめとするAIの技術に、AI以外の別の技術を組み合わせるアプローチを採る。例えば富士通は情報同士の関係性を示す「ナレッジグラフ」を組み合わせて、深層学習による判断結果を検証する。ナレッジグラフは膨大なデータの意味や周辺知識をコンピュータが扱えるよう、グラフ構造に体系化したものだ。

 まず深層学習の出力結果を逆にたどって、結果に大きく影響したと思われるデータ群の「推定因子」を特定する。次いで推定因子をナレッジグラフに当てはめ、関連性が高いデータを抽出して判断根拠とする。

 シムマシーンズはデータ同士の意味が似通っている度合いを数値で示すアルゴリズム「類似検索(Similarity Search)」を活用する。AIによる判断結果と結果に至った解釈の両方をまとめて提示する技術を独自開発した。大量のデータを複数の集団に分類する作業に向く。分類に影響した要因を影響度の高い順番に出力して、分類の根拠として示す。

この先は有料会員の登録が必要です。「日経コンピュータ」定期購読者もログインしてお読みいただけます。今なら有料会員(月額プラン)が4月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら