ディープラーニング(深層学習)は人間にとってブラックボックスであり、AI(人工知能)による判断の根拠が不明だ―――。そんな懸念を解消する技術を米グーグル(Google)が2019年11月21日にリリースした。クラウドのサービスとして「Explainable AI(説明可能AI)」の提供を開始した。

 Explainable AIは深層学習によって開発したAIにおけるニューラルネットワークの稼働状況を分析することで、AIによる判断の根拠を人間に分かる形で提示する技術である。例えば画像認識AIであれば、被写体を分類する際に根拠としたピクセルをハイライト表示する。

 構造化データに基づいて判断するタイプのAIに関しては、ニューラルネットワークに入力したデータのどの部分(特徴)がAIの判断に寄与したのかを数値で示す。グーグルのクラウドAI事業を統括するバイス・プレジデント(VP)のラジェン・シェス氏は「グーグルが開発した『Integrated gradients』と呼ぶ手法を採用している」と明かす。グーグルはIntegrated gradientsを実行するためのソースコードをオープンソースとして「GitHub」で公開している。

AIが融資不可と判断した根拠を提示

 AIの判断根拠を遡れると何がうれしいのか。シェスVPは「金融機関は規制当局に対してAIの判断根拠を示すよう求められている。与信管理AIがなぜある顧客に対して『融資不可』と判断したのか。Explainable AIを使うことで、顧客のどの属性がAIの判断に寄与したのか示せるようになる」と説明する。金融機関や医療機関などAIの「説明責任」が求められている組織が安心してAIを利用可能になるということだ。

 Explainable AIは「Google Cloud AI」のサービスの1つとして提供する。Explainable AIの分析対象となるのは、ユーザーが「Cloud AI Platform Predictions」という機能を使ってグーグルのクラウド上に展開した機械学習モデルと、グーグルのAI自動作成サービス「AutoML」の中でも表形式のデータに対応した「AutoML Tables」を使って開発した機械学習モデルである。

様々なタイプのAIが自動で開発可能にも

 Explainable AIは2019年11月に発表したばかりの最新サービスだが、AutoML Tablesも2019年4月に始まった比較的新しいサービスだ。AutoML Tablesはその破壊力の割に知名度が低いので、この機会に詳しく説明しておこう。

 まずAI自動作成サービスであるAutoMLは、グーグルが2018年に発表した。ユーザーは教師データをクラウドにアップロードするだけで、あとはAIが自動で機械学習モデルを開発してくれる。当初は画像認識AIや自然言語処理AIが開発できるサービスだった。2019年4月にAutoML Tablesを開始してからは、表形式のデータを分析するものであればデータの種類を問わずに機械学習モデルを開発できるサービスになった。

この先は会員の登録が必要です。今なら有料会員(月額プラン)が2020年1月末まで無料!

日経 xTECHには有料記事(有料会員向けまたは定期購読者向け)、無料記事(登録会員向け)、フリー記事(誰でも閲覧可能)があります。有料記事でも、登録会員向け配信期間は登録会員への登録が必要な場合があります。有料会員と登録会員に関するFAQはこちら