ディープラーニングの実用化によって、AIの可能性は飛躍的に高まった。しかし、その判断プロセスはブラックボックスであり、これが適用可能領域を限定する要因になっていた。この問題を解決するために、富士通は世界で初めて「説明可能なAI」を開発した。具体的には、どのような手法でAIが出した回答の理由や根拠を説明できるようになったのか。最先端の研究内容を紹介しよう。

 将棋や囲碁でプロ棋士を破ったことで大きな注目を集める人工知能(AI)。最近ではスマートスピーカーや自動運転など適用分野も広がっている。

 ここに来てAIが飛躍的に進化した背景には、ディープラーニングの実用化がある。従来の機械学習では、学習のために着目すべき「特徴量」を人間が指定する必要があった。しかしディープラーニングではニューラルネットワークと呼ばれる人間の神経構造を模したアルゴリズムを発展させることで、特徴量を自動的に見つけ出せるようになり、特徴量を明示しにくい複雑な問題にも適用可能となったのである。

 しかしこれによって、新たな問題も指摘されるようになってきた。ディープラーニングによる判断プロセスはブラックボックスであるため、専門家でもAIが出した回答の理由や根拠を説明できず、「結果を本当に信頼してもよいのか」という疑念を払拭できないでいるのだ。

 例えば医療現場にAIを導入するケースを考えてみてほしい。検査結果のデータから、AIが診断や治療内容を指示したとして、あなたはその結論を100%信頼する気になれるだろうか。判断プロセスがブラックボックスの状態でいきなり結論だけが出てくるというのでは、自分の健康や生命に関わる医療分野では、多くの人が拒否感を感じてしまう。

 出てきた結論に対して根拠を示してほしいと感じる領域は、何も医療だけに限らない。大きなところでは国の政策から、金融分野の投資判断、身近なところでは会社の人事評価まで、さまざまなケースが考えられる。ディープラーニングはAI活用の可能性を大きく広げたが、ブラックボックスのままでは適用可能な領域が限られるのも、また事実である。

 しかしこれに対する解決策が、最近になって具現化しつつある。富士通が世界で初めて開発した「説明可能なAI」である。

この先は日経 xTECH Active会員の登録が必要です

日経xTECH Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。